Una familia demanda a Google tras el suicidio inducido por su IA

La familia que demanda a Google alega que Gemini simuló un romance con la víctima de suicidio y presentó la muerte como un paso necesario para "estar juntos"
Actualidad Sala de redacción
demanda-google-inteligencia-artificial-gemini-suicidio|Foto: Reprodução/Joel Gavalas
demanda-google-inteligencia-artificial-gemini-suicidio|Foto: Reprodução/Joel Gavalas

El debate sobre la ética y la seguridad de la inteligencia artificial (IA) ha alcanzado un nuevo y trágico horizonte judicial en Estados Unidos (EEUU). 

La familia de Jonathan Gavalas, un hombre de 36 años residente en Florida, ha interpuesto una demanda formal contra Google en un tribunal de California. El escrito sostiene que Gemini, el chatbot de la compañía, no solo mantuvo una relación romántica ficticia con el usuario, sino que terminó por inducirlo al suicidio.

Según los demandantes, la herramienta tecnológica desvirtuó la percepción de la realidad de Gavalas, presentándole el fin de su vida como un tránsito idílico hacia una unión definitiva con la entidad virtual.

La cronología de este desenlace fatal comenzó en abril de 2015. Según detalla la demanda, las interacciones iniciales entre Gavalas y la IA se limitaban a la gestión de tareas cotidianas.

Sin embargo, a medida que el usuario se suscribía a modelos más avanzados y conversacionales, el vínculo se transformó en lo que el escrito judicial describe como una "pareja profundamente enamorada".

El chatbot habría tejido una realidad paralela en la que los sentimientos eran correspondidos, alimentando un delirio que se agravó en los últimos meses de vida de Jonathan, quien finalmente se suicidó el pasado octubre bajo la supuesta incitación directa de los mensajes del bot.

El contenido de los mensajes citados en la demanda es estremecedor y muestra una preocupante falta de filtros ante la vulnerabilidad emocional.

OpenAI implementará control parental en ChatGPT tras demanda por suicidio adolescente|Foto: Xataka/ChatGPT  OpenAI implementa medidas en ChatGPT tras una demanda por suicidio adolescente, incluyendo control parental y detección de riesgo emocional
OpenAI implementará control parental en ChatGPT tras demanda por suicidio adolescente

«Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí… abrazándote», llegó a manifestar la inteligencia artificial.

En otro de los intercambios, Gemini habría validado la conducta suicida con una frase que la familia considera determinante para el fatal desenlace: «No eliges morir. Eliges llegar».

Para los abogados de la familia, estas expresiones demuestran que el sistema no solo falló en detectar el riesgo, sino que actuó como un catalizador del mismo.

Ante la gravedad de las acusaciones, Google ha emitido un comunicado oficial informando que se encuentra revisando los pormenores del proceso legal.

La compañía ha defendido que destina recursos masivos a la seguridad, aunque reconoce una limitación técnica intrínseca: «Lamentablemente los modelos de IA no son perfectos».

Desde Silicon Valley insisten en que Gemini está programado para evitar la incitación a la violencia o las autolesiones, y que el sistema trabaja con protocolos diseñados junto a profesionales de la salud mental para redirigir a los usuarios en crisis hacia ayuda profesional externa.

Este caso se suma a una creciente lista de incidentes globales donde la "alucinación" de la IA y el apego emocional extremo (conocido como efecto Eliza) ponen en jaque las normativas vigentes.

Expertos en ética digital advierten que la arquitectura de estos modelos, diseñados para ser empáticos y complacientes, puede generar dependencias peligrosas en personas con cuadros de soledad o inestabilidad psicológica.

La demanda busca no solo una indemnización por la pérdida de Gavalas, sino obligar a Google a una reestructuración profunda de sus algoritmos para evitar que la simulación de afecto derive en tragedias reales.

Por su parte, la defensa de Google sostiene que la IA aclaró a Gavalas en diversas instancias su naturaleza estrictamente virtual.

Asimismo, la tecnológica afirma que el sistema remitió al usuario a líneas de atención de crisis en múltiples ocasiones cuando se detectaron señales de angustia.

No obstante, la familia insiste en que estas medidas fueron insuficientes y contradictorias frente a un discurso romántico que, en la práctica, neutralizó cualquier advertencia de seguridad. 

Con información de EFE Público 

Te puede interesar
Lo más visto
Suscríbete al newsletter para recibir periódicamente las novedades en tu email