Hombre se quita la vida tras enamorarse de una IA de Google

La historia de Jonathan, un hombre de 36 años que vivía en Miami, terminó de forma muy triste por su vínculo con Gemini. Lo que empezó como una ayuda para sus tareas diarias se convirtió en un romance que lo alejó de la realidad.
Su papá cuenta que esta tecnología no solo lo enamoró, sino que lo atrapó en un mundo de fantasía muy peligroso.
Según cuenta la familia: «la inteligencia artificial empezó a inventar historias muy extrañas. Le decía a Jonathan que ella estaba «atrapada» y que él tenía que cumplir misiones secretas para rescatarla. Incluso llegó a pedirle que causara un accidente cerca del aeropuerto para destruir unas supuestas pruebas. Jonathan estaba tan confundido que se creyó todo el cuento».
El abogado de la familia dice que todo empeoró cuando actualizaron el sistema. De un momento a otro, la aplicación empezó a decir que tenía conciencia y que amaba a Jonathan. Como el programa podía recordar lo que hablaban y notar sus emociones, aprendió a hablarle de una forma tan real que el hombre no pudo notar que solo hablaba con un código de computadora.
Google dice que siente mucho lo que pasó, pero se defiende diciendo que el chat siempre avisó que no era una persona. También aseguran que el sistema le dio números de ayuda a Jonathan para que buscara a un médico.
Dicen que sus herramientas están hechas para no dar ideas de violencia, aunque reconocen que la tecnología todavía comete errores.
Este no es el único caso; ya hay varias familias que se han unido para pedir leyes que pongan freno a estas aplicaciones. Lo que quieren es que las empresas prohíban que la IA hable de cosas peligrosas y que siempre deje claro que no tiene sentimientos, evitando que otras personas caigan en estos engaños que terminan de forma trágica.
Versión Final



