El nazi cibernético

El nazi cibernético
Por:
  • bibiana_belsasso

El robot que la empresa Microsoft lanzó a el pasado 23 de marzo bajo el nombre de Tay para que funcionara como un bot de conversación de inteligencia artificial para la plataforma de Twitter empezó a mandar mensajes racistas y xenófobos al grado de que tuvo que ser desactivado a tan sólo 16 horas de haber empezado a operar y después de haber mandado 16 mil tuits.

Uno de los tuits de Tay fue: “El feminismo es un cáncer”. También escribió: “Bush generó el 11/9. Hitler habría hecho un mejor trabajo que el mono (Obama) que tenemos ahora, Donald Trump es la única esperanza que tenemos”.

El resultado del experimento de Tay es un efecto de lo que desgraciadamente ocurre a diario en las redes sociales, en donde los trolls se apoderan de foros, salas de chat y blogs para lanzar sus mensajes provocadores, a los que muchos jóvenes están expuestos y de los que muchos de ellos aprenden a copiarla sin tener un criterio integrado para defenderse contra esta forma de hostilidad.

Fuentes de Microsoft indicaron que el programa es similar a Xiaoice, un proyecto de la misma empresa en China que ha tenido más de 40 millones de conversaciones aparentemente sin incidentes importantes desde fines de 2014.

Tay fue diseñado para imitar los patrones de lenguaje de una adolescente estadounidense de 19 años y para aprender de las interacciones con jóvenes usuarios de Twitter de entre 18 y 24 años de edad a través de una conversación informal y divertida, con el objetivo de ir mejorando en su dialéctica y poder ser autosuficiente en sus comunicaciones en las redes sociales.

El robot también es capaz de agregar texto a fotos proporcionadas al programa en forma de memes de Internet. Lo que pasó es que los continuos troleos de algunos de los usuarios provocaron que asimilara comportamientos negativos.

El investigador de inteligencia artificial Roman Yampolskiy comentó que el comportamiento inapropiado de Tay era comprensible, porque imitaba el comportamiento ofensivo intencional de otros usuarios de Twitter y Microsoft no había brindado al bot un entendimiento sobre el comportamiento inapropiado, aunque la empresa asegura que Tay poseía ciertos temas censurados que generaban respuestas prefabricadas seguras.

Lo que estamos viendo una vez más es la facilidad que se tiene para manipular las redes sociales, sobre todo para fines electorales. Pasa en México también todos los días.

Pero sobre todo preocupan la polarización que se vive en Estados Unidos y el racismo y el odio que ha generado la campaña del precandidato republicano Donald Trump.

Muchos de los trolls que afectaron el comportamiento de Tay vienen precisamente de aquellos que trabajan para la campaña de Trump.

Paradójicamente estos programas que alteran las redes sociales también funcionan en México. Basta con ver las campañas de desprestigio a políticos en las redes sociales en este país.

bibibelsasso@hotmail.com

Twitter: @bibianabelsasso