Inteligencia Artificial de Google no superó su mayor prueba: detectar el odio



Por Bloomberg

Un boicot publicitario a YouTube está poniendo a prueba una parte crucial y muy promocionada del futuro de Google: su destreza en inteligencia artificial (IA). Algunos expertos en ese campo dicen que la tecnología no está a la altura de las circunstancias pero que, si hay una empresa que puede resolver el problema en cuestión, es el gigante de las búsquedas online.

Algunas de las compañías más grandes del mundo suspendieron el gasto en YouTube este mes después que se publicaran anuncios de grandes marcas junto a videos que promovían el odio y el extremismo.

La sociedad controlante de Google, Alphabet, podría perder US$750 millones de ingresos este año debido a esta debacle, calcularon analistas de Nomura Instinet esta semana. Eso es menos del 1 por ciento de las ventas proyectadas para este año, por lo que la empresa puede capear la tormenta financiera.

Pero es probable que esto sea un incentivo para que la compañía reoriente las inversiones en IA y acelere los esfuerzos de investigación ya están en marcha.

Para detectar y vigilar el contenido de la extensa biblioteca de YouTube y garantizar que los anuncios no aparezcan junto a contenido cuestionable, Google debe resolver un problema de IA del que nadie ha encontrado solución, comprender automáticamente todo lo que ocurre en los videos, incluyendo los gestos y otros matices humanos.

Una posible solución es el aprendizaje automático, poderosa técnica de IA para reconocer patrones en forma automática en grandes cantidades de datos, una especialidad de Google. El máximo ejecutivo Sundar Pichai se ha comprometido a aplicar esa tecnología a todos sus productos, y la compañía promociona sus habilidades en este campo ante los desarrolladores de software, los clientes de computación en la nube, los anunciantes y los accionistas.

Los especialistas en ciencias de la computación dudan de que la tecnología por sí sola pueda eliminar los videos ofensivos. "Todavía no hemos llegado a donde podemos encontrar, por ejemplo, todo el contenido extremista", dijo Hany Farid, profesor de Dartmouth y asesor principal del Counter Extremism Project, que ha pedido repetidamente a YouTube abordar este problema.

Recomienda que compañías como Google y Facebook pongan más editores humanos a filtrar contenido. "El aprendizaje automático, la IA está muy lejos de eso", dijo. "No crean toda esa alharaca."

La maquinaria de promoción de la IA está funcionando a toda velocidad en Silicon Valley en este momento, en tanto startups y gigantes de la tecnología como Google, Amazon y Microsoft compiten por contratar ingenieros y científicos expertos en ese campo.

Los avances de Google en IA a veces están a la altura de la alharaca, pero no son perfectos. La división de nube de la compañía hace poco lanzó una herramienta (no relacionada con YouTube) que descompone los videos en sus elementos constitutivos, haciéndolos "buscables y detectables". Esta semana un grupo de académicos publicó una investigación que mostraba cómo engañar a este sistema mediante la inserción de imágenes en los videos.

"Los videos son tridimensionales. Tienen dos dimensiones en el espacio y otra dimensión en el tiempo", dijo Jiebo Luo, experto en IA de la Universidad de Rochester que ha creado filtros de discursos de odio basados ​​en texto para medios sociales como Twitter. "Es un desafío."

Especialmente para algo tan grande como YouTube. La empresa dijo en 2015 que la gente subió 300 horas de contenido por minuto al servicio, lo que hace imposible analizar todos los videos mientras van apareciendo.

Fuente: Estrategia y Negocios