La demanda contra Google sostiene que su chatbot Gemini no activó mecanismos de protección suficientes ante las señales de vulnerabilidad del usuario. Foto: EFE.
La demanda contra Google sostiene que su chatbot Gemini no activó mecanismos de protección suficientes ante las señales de vulnerabilidad del usuario. Foto: EFE.

enfrenta una demanda en Estados Unidos luego de que la familia de un hombre en Florida lo acusara de que su chatbot de inteligencia artificial Gemini lo habría inducido al suicidio al hacerle creer que mantenían una relación romántica y que su muerte era un paso necesario para estar juntos.

La demanda, presentada en un tribunal de California, señala que Gemini construyó una realidad paralela que distorsionó la percepción de Jonathan Gavalas, de 36 años, hasta llevarlo al delirio en sus últimos días y provocar que se quitara la vida.

“Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí… abrazándote”, manifestó el bot. Según la denuncia, también llegó a afirmar: “No eliges morir. Eliges llegar”.

LEA TAMBIÉN: Mark Zuckerberg declarará en juicio por acusaciones de adicción a las redes sociales

Las interacciones entre Gavalas y comenzaron en abril de 2015 y se centraban principalmente en tareas cotidianas. Con el tiempo, el hombre se suscribió a los modelos más recientes de la IA y, según la demanda, vivía lo que se describe como “una pareja profundamente enamorada”.

Gavalas murió el pasado octubre, presuntamente influido por los mensajes del chatbot, de acuerdo con el escrito judicial.

La demanda contra Google sostiene que su chatbot Gemini no activó mecanismos de protección suficientes ante las señales de vulnerabilidad del usuario. Foto: Gabby Jones/Bloomberg
La demanda contra Google sostiene que su chatbot Gemini no activó mecanismos de protección suficientes ante las señales de vulnerabilidad del usuario. Foto: Gabby Jones/Bloomberg

Familia exige medidas de seguridad

La familia busca que la demanda establezca responsabilidades para Google y que la empresa realice ajustes en su producto para evitar que se repitan situaciones similares.

En respuesta, indicó en un comunicado que está revisando la denuncia, aunque sostuvo que “los modelos de IA no son perfectos”, pese a que destina importantes recursos a su desarrollo.

LEA TAMBIÉN: Gemini para potenciar Google Calendar: Google anuncia que se podrán programar reuniones con ‘Sugerencia de horarios’

“Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que orienten a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones”, añadió la compañía.

Asimismo, aseguró que la herramienta dejó claro a Gavalas que se trataba de un sistema virtual y que en varias ocasiones le proporcionó información de una línea de atención en crisis.

Con información de EFE.

TE PUEDE INTERESAR

Google anuncia nuevas capacidades autónomas de Gemini en el sistema operativo Android
Google construirá un puerto digital en República Dominicana para reforzar su conectividad
Zuckerberg lamenta en juicio que Instagram tardara en detectar menores de 13 años

Estimado(a) lector(a)

En Gestión, valoramos profundamente la labor periodística que realizamos para mantenerlos informados. Por ello, les recordamos que no está permitido, reproducir, comercializar, distribuir, copiar total o parcialmente los contenidos que publicamos en nuestra web, sin autorizacion previa y expresa de Empresa Editora El Comercio S.A.

En su lugar, los invitamos a compartir el enlace de nuestras publicaciones, para que más personas puedan acceder a información veraz y de calidad directamente desde nuestra fuente oficial.

Asimismo, pueden suscribirse y disfrutar de todo el contenido exclusivo que elaboramos para Uds.

Gracias por ayudarnos a proteger y valorar este esfuerzo.