Open IA decidió ocultar los hallazgos de su última investigación por temor a sus posibles usos indebidos y el impacto social negativo que tendría. El hallazgo tiene que ver con artículos convincentes de “fake news”.
El instituto, respaldado por personalidades como Elon Musk y Peter Thiel, desarrolló una IA que puede producir esas noticias falsas sobre cualquier tema. Los artículos solo requieren un breve aviso antes de que funcione sin supervisión.
La AI revisa los datos de 8 millones de páginas web y solo mira aquellos publicados en Reddit con un ‘karma’ de tres o más. Esa comprobación significa que el artículo es interesante para algunas personas aunque a ciencia cierta no se sabe por qué.
El texto resultante no solo es coherente, sino que incluso incluye “citas” utilizadas en el artículo, pero de principio a fin está fabricado. Pero Open IA decidió ocultar esta información por que la IA puede ser utilizada con fines dañinos.
Por otro lado, los investigadores no piensan detenerse, solo esperan que con el avance de las computadoras también vengan leyes que resguarden la veracidad de la información. Estas son algunas de las maneras con las que Open IA plantea que puede sacar provecho de esta nueva tecnología:
- Ayudantes de escritura de AI.
- Agentes de diálogo más capaces.
- Traducción no supervisada entre idiomas.
- Mejores sistemas de reconocimiento de voz.
Y por otro lado, estos son algunos de los factores de riesgo:
- Generar artículos de noticias engañosos.
- Falsificación de identidad en línea.
- Automatizar la producción de contenido abusivo o falso para publicar en las redes sociales.
- Automatizar la producción de contenido de spam / phishing.
Cuando los investigadores empezaron el proyecto no esperaban dar con toda esta serie de riesgos, así como Einstein no esperaba que su ecuación fuera utilizada para armas nucleares.
La época de los bots ha llegado, pero con ella también ha llegado mucha desinformación e injerencia de algunos países sobre otros a partir de las nuevas tecnologías. El temor más grande de toda la humanidad es que la inteligencia artificial sea utilizada como sistema de manipulación y dominación. Y lamentablemente mientras más avanzan los investigadores en el desarrollo de nuevos programas se demuestra que ese temor es cada vez más real.
Y por otro lado, en cuanto a la distribución de la información, cada vez existe menos responsabilidad en torno a las campañas. Lo ideal sería que los medios que publican noticias en línea con información falsa o no verificada pudieran responsabilizarse de las consecuencias. Pero hasta ahora la normativa termina con las limitaciones de la tecnología por encontrar y verificar estos falsos focos de información.
Y por desgracia, los investigadores plantean que el mismo Open IA puede hacer que sea mucho más difícil responsabilizar a alguien por las fake news. La idea de artículos fabricados, combinados con imágenes y videos de DeepFake, es bastante delicada. Y al menos Open IA ha aceptado su propia responsabilidad y ha tomado la decisión correcta de no hacer pública su última investigación en este momento.