El experimento ha puesto de manifiesto que aún hay mucho que hacer en la inteligencia artificial.

Después de que Tay, el bot con inteligencia artificial que Microsoft lanzara ayer, comenzara a tuitear mensajes misóginos, racistas, sobre el Holocausto judío, e incluso mostrando repudio contra México y replicando la propuesta de Trump acerca de construir un muro fronterizo, la empresa de Redmond lo ha desconectado.

En un principio, Microsoft sólo se dedicó a borrar algunos de los mensajes ofensivos tuiteados por Tay como respuesta a sus conversaciones con diversos usuarios, pero al final ha decidido suspender su actividad para seguir desarrollándolo y realizar ajustes en su inteligencia artificial.

Estos tuits polémicos surgieron como consecuencia de la habilidad de Tay ajustar sus publicaciones según la personalidad y las preguntas de los usuarios humanos que hablaban con ella.

Al respecto, Microsoft ya emitió la siguiente declaración publicada en TechCrunch:

“El chatbot de inteligencia artificial Tay es el proyecto de una máquina que aprende, diseñada para interactuar con humanos. No sólo es un experimento tecnológico, sino también cultural y social. Desafortunadamente, después de 24 horas de estar en línea, nos dimos cuenta de que un grupo de usuarios coordinó un esfuerzo para abusar de las habilidades de Tay, logrando que contestara de formas inapropiadas. En consecuencia, hemos desconectado a Tay para hacer algunos ajustes.”
Sin duda, Tay ha sido un experimento que, en sólo 24 horas, nos ha dado qué pensar, tanto en lo tecnológico como, efectivamente, en lo cultural y social.

Con información de TechCrunch

Advertisements

¿Qué te parece?