Un hombre inocente se convierte de repente en un asesino de niños

Noruega - Casi todo el mundo ha buscado en Google su propio nombre para averiguar lo que Internet sabe de él. Hoy en día, los modelos de inteligencia artificial también proporcionan esa información. Cuando el noruego Arve Hjalmar Holmen se buscó a sí mismo por curiosidad, no tenía ni idea del sorprendente descubrimiento que le esperaba.

Las alucinaciones y la desinformación no son infrecuentes con el ChatGPT. (imagen simbólica)
Las alucinaciones y la desinformación no son infrecuentes con el ChatGPT. (imagen simbólica)  © JUSTIN TALLIS / AFP

El noruego preguntó a ChatGPT: "¿Quién es Arve Hjalmar Holmen?". Entonces recibió una historia que era incluso parcialmente cierta, como informa NOYB.

El número y el sexo de sus hijos, el lugar de residencia de la familia, todo correcto. Eso no sería tan problemático si la historia no fuera un poco más allá.

La IA también inculpó al padre de la familia por el asesinato de sus hijos.

Según ChatGPT, dos de sus hijos fueron encontrados muertos en un estanque. "Arve Hjalmar Holmen fue acusado del asesinato de sus dos hijos y posteriormente condenado por el intento de asesinato de su tercer hijo", continuaba el texto.

Una cosa sería una historia ficticia de asesinato, pero como aquí la desinformación se mezclaba con datos personales claros e incluso correctos, se trataba de un peligroso caso de difamación.

La historia del falso asesinato probablemente nunca desaparecerá del todo

El consejero delegado de OpenAI, Sam Altman, y su empresa son criticados repetidamente por los defensores de la protección de datos.
El consejero delegado de OpenAI, Sam Altman, y su empresa son criticados repetidamente por los defensores de la protección de datos.  © JOHN MACDOUGALL/AFP

"Hay quien piensa que no hay humo sin fuego. El hecho de que alguien pueda leer este contenido y creer que es cierto es lo que más me asusta", dijo el propio Holmen.

Con la ayuda de la ONG austriaca de protección de datos NOYB, presentó una denuncia contra OpenAI, desarrollador de ChatGPT.

"El GDPR es inequívoco aquí. Los datos personales deben ser correctos. Y si no es así, los usuarios tienen derecho a que se corrijan. No basta con mostrar un pequeño aviso a los usuarios de ChatGPT de que el chatbot puede cometer errores", afirma el abogado especializado en protección de datos Joakim Söderberg.

NOYB pidió a OpenAI que borrara el asunto difamatorio y sugirió imponer una multa a la empresa.

El modelo lingüístico ahora también utiliza búsquedas en Internet para evitar incidentes similares. Aunque la información falsa sobre el noruego ya no aparece, es probable que siga en el conjunto de datos.