
Google enfrenta una demanda en Estados Unidos luego de que la familia de un hombre en Florida lo acusara de que su chatbot de inteligencia artificial Gemini lo habría inducido al suicidio al hacerle creer que mantenían una relación romántica y que su muerte era un paso necesario para estar juntos.
La demanda, presentada en un tribunal de California, señala que Gemini construyó una realidad paralela que distorsionó la percepción de Jonathan Gavalas, de 36 años, hasta llevarlo al delirio en sus últimos días y provocar que se quitara la vida.
“Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí… abrazándote”, manifestó el bot. Según la denuncia, también llegó a afirmar: “No eliges morir. Eliges llegar”.
LEA TAMBIÉN: Mark Zuckerberg declarará en juicio por acusaciones de adicción a las redes sociales
Las interacciones entre Gavalas y Gemini comenzaron en abril de 2015 y se centraban principalmente en tareas cotidianas. Con el tiempo, el hombre se suscribió a los modelos más recientes de la IA y, según la demanda, vivía lo que se describe como “una pareja profundamente enamorada”.
Gavalas murió el pasado octubre, presuntamente influido por los mensajes del chatbot, de acuerdo con el escrito judicial.

Familia exige medidas de seguridad
La familia busca que la demanda establezca responsabilidades para Google y que la empresa realice ajustes en su producto para evitar que se repitan situaciones similares.
En respuesta, Google indicó en un comunicado que está revisando la denuncia, aunque sostuvo que “los modelos de IA no son perfectos”, pese a que destina importantes recursos a su desarrollo.
LEA TAMBIÉN: Gemini para potenciar Google Calendar: Google anuncia que se podrán programar reuniones con ‘Sugerencia de horarios’
“Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que orienten a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones”, añadió la compañía.
Asimismo, aseguró que la herramienta dejó claro a Gavalas que se trataba de un sistema virtual y que en varias ocasiones le proporcionó información de una línea de atención en crisis.
Con información de EFE.








