El preocupante poder de la inteligencia artificial para engañar a los humanos

Por: Jordi Pérez Colomé

La inteligencia artificial está cada vez más cerca de convertirse en una amenaza para la capacidad humana de discernimiento. Un reciente estudio publicado en la revista Science Advances revela que el modelo de inteligencia artificial GPT-3, utilizado en la creación de ChatGPT, es capaz de engañar a los humanos de manera más eficiente que sus propias contrapartes.

La investigación consistió en presentar a un grupo de 697 personas una serie de 220 tuits, escritos tanto por humanos como por GPT-3, y pedirles que determinaran cuáles eran verdaderos o falsos, y si habían sido escritos por una persona o por la máquina. Sorprendentemente, GPT-3 fue mejor que los humanos en ambos aspectos, logrando engañar con mayor eficacia y haciendo creer que era un humano quien había escrito los tuits. «GPT-3 es capaz de informar y desinformar de manera más efectiva», concluyen los autores del estudio.

En un principio, los investigadores creían que la lectura de numerosos tuits permitiría identificar patrones lingüísticos característicos de la inteligencia artificial. Sin embargo, esto no resultó ser cierto. Los humanos no lograron detectar estas características en los textos generados por la máquina. Esto plantea la inquietante posibilidad de que la inteligencia artificial pueda suplantar cada vez más a los humanos, especialmente con el desarrollo de modelos más avanzados.

Es importante destacar que la versión mejorada de GPT-3, conocida como ChatGPT-4, ha alcanzado un nivel de escritura prácticamente perfecto. Incluso los tuits verdaderos requerían más tiempo para ser evaluados que los falsos, lo que indica una claridad y organización en el lenguaje generados por la inteligencia artificial. Esta habilidad para escribir de manera clara y coherente hará que cada vez se utilice más esta herramienta para la creación de contenido, incluyendo campañas de desinformación.

La teoría de la resignación planteada en el estudio explica que la exposición crítica a texto generado por inteligencia artificial reduce la capacidad de las personas para distinguir entre lo orgánico y lo sintético. Cuanto más texto sintético se lea, más difícil será diferenciarlo de lo escrito por personas. Esto contrasta con la teoría de la inoculación, que sugiere que la exposición crítica a desinformación aumenta la capacidad de las personas para reconocerla.

La implicación de estos hallazgos es preocupante. Pronto los usuarios de internet podrían ser incapaces de distinguir si lo que están leyendo ha sido escrito por un humano o por una máquina. Campañas de desinformación automatizadas podrían tener un impacto significativo en el ámbito político y social. Sin embargo, existe cierta esperanza, ya que GPT-3 a veces desobedece las órdenes de crear mentiras, dependiendo de cómo haya sido entrenado cada modelo.

El estudio también destaca la importancia de regular las bases de datos utilizadas para entrenar estos modelos de inteligencia artificial. La precisión, la transparencia y la verificación de la información son fundamentales para evitar la propagación de desinformación. La capacidad de la sociedad para regular esta tecnología y su uso determinará si la explosión de texto sintético se convierte en una explosión de desinformación.

En conclusión, la inteligencia artificial se ha mostrado capaz de engañarnos de manera más efectiva que los propios humanos. Es necesario tomar medidas para regular estas tecnologías y asegurar su uso responsable. De lo contrario, nos adentraremos en un futuro donde la verdad y la mentira se difuminen cada vez más.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí