Ciencia y tecnología

Google crea una herramienta para detectar comentarios tóxicos en los medios

El nuevo proyecto de inteligencia artificial de Google pretende ser una herramienta útil para luchar contra el "acoso en línea y la creciente toxicidad de las conversaciones en la red".

Instalaciones de la empresa Google. Foto: SoyCeo

Instalaciones de la empresa Google. Foto: SoyCeo

La Razón Digital / EFE / Madrid

10:17 / 23 de febrero de 2017

Google anunció este jueves la creación de Perspective, una herramienta de inteligencia artificial para que los medios de comunicación puedan detectar de forma automática los comentarios tóxicos e irrespetuosos.

"Perspective es una tecnología que utiliza el aprendizaje automático ('machine learning') para identificar los comentarios tóxicos. Y por toxicidad entendemos aquellos comentarios que llevan a alguien a abandonar una conversación", explicó en conferencia telefónica el responsable de la iniciativa, Jared Cohen.

El nuevo proyecto de inteligencia artificial de Google pretende ser una herramienta útil para luchar contra el "acoso en línea y la creciente toxicidad de las conversaciones en la red".

"Un número de individuos están dificultando la discusión civilizada y dinámica en las secciones de comentarios de plataformas y medios, lo que lleva a que mucha gente abandone la conversación. (...) Muchos medios han terminado cerrando esas secciones", añadió Cohen.

El directivo es presidente de Jigsaw, el laboratorio de ideas de Alphabet -antes conocido como Google Ideas- que ha sido el responsable del desarrollo de este proyecto de inteligencia artificial que se sustenta en la tecnología de aprendizaje automático de Google, Tensorflow.

Perspective analiza los comentarios y detecta el grado de toxicidad de las conversaciones, ofreciéndole a medios y plataformas de internet la información detallada en un marcador que va de cero a cien.

Cohen matizó que son los medios quienes tienen que decidir cómo usarán ese marcador: por ejemplo, para detectar los comentarios que deben ser revisados a mano, para mostrar a los lectores ese grado de toxicidad o bien permitirles que filtren los comentarios en función del nivel que están dispuestos a tolerar.

¿Y cómo sabe el algoritmo qué comentarios son tóxicos?

El algoritmo compara los comentarios analizados con otros que anteriormente fueron categorizados como tóxicos. También dispone de un sistema que se corrijan evaluaciones erróneas. Cuanta más información maneje, más atinado será su juicio.

Cohen subrayó que Perspective está en "sus primeros días" y "muy lejos de ser perfecto", pero que irá mejorando a medida que disponga de más datos para entrenar su precisión.

La tecnológica ya ha probado el algoritmo con "The New York Times", "The Guardian", "The Economist" y la Fundación Wikimedia, responsable de la Wikipedia.

Cualquier medio o plataforma de internet puede utilizar Perspective de forma gratuita -a través de una API-, aunque por el momento solo existe un modelo para el idioma inglés.

En el futuro, a medida que editores de otras lenguas se sumen al proyecto, la "aspiración" de Google es ir ampliando el rango de idiomas disponibles.

También esperan que a lo largo del año Perspective evolucione y sirva para detectar en los comentarios ataques directos y temas que no tienen nada que ver con la discusión en marcha. (23/02/2017)

Ediciones anteriores

Lun Mar Mie Jue Vie Sab Dom
1 2 3 4 5 6
7 8 9 10 11 12 13
21 22 23 24 25 26 27
28 29 30 31

Suplementos

Colinas de Santa Rita, Alto Auquisamaña (Zona Sur) - La Paz, Bolivia