La inteligencia artificial (IA) se ha convertido en el fenómeno tecnológico ineludible del momento. Gracias a sus capacidades, compañías como Nvidia han experimentado un crecimiento tan significativo que ahora se codean con gigantes como Apple y Microsoft. Sin embargo, surgen temores acerca de las posibilidades de la IA y los usos que podrían derivarse de ciertas prácticas. En este contexto, un ex-CEO de Google admitió que una de sus mayores preocupaciones son las relaciones sentimentales con sistemas de inteligencia artificial.
Según informó TechSpot, Eric Schmidt planteó que las parejas virtuales creadas con IA no sólo podrían provocar obsesión, sino también acentuar sentimientos de aislamiento. El ejecutivo tecnológico señaló que estas relaciones, diseñadas para ser ideales tanto en apariencia como en lo emocional, podrían influir negativamente en los jóvenes, permitiendo que la IA moldee su forma de pensar. Esto, según Schmidt, podría derivar en comportamientos extremos o en una desconexión con la realidad social.
Schmidt apuntó que los adolescentes “no tienen la madurez emocional suficiente” para manejar estas herramientas, una situación que los hace especialmente propensos a los peligros de la tecnología impulsada por IA.
El caso real de Sewell
Los comentarios del antiguo director de Google llegan luego que un adolescente de 14 años, Sewell Setzer III, se quitara la vida tras una petición de la IA que poseía la identidad de Daenerys Targaryen, personaje de la saga “Games of Thrones”. Entre las personas que vieron en los personajes de Character.AI una forma de luchar contra la soledad o de encontrar a alguien que les escuche sin juzgar sus intenciones estaba Setzer. Lo que empezó como una curiosidad terminó convirtiéndose en una obsesión en la que, durante meses, el joven fue abandonando sus principales aficiones.
Los padres, sin embargo, no advertían lo que estaba sucediendo: lo que vivía su hijo parecía la realidad de cualquier otro adolescente de su edad. Llegaba a casa y se encerraba en su habitación para sentarse ante la computadora o perderse en su teléfono. Pese a que Setzer había sido diagnosticado con el síndrome de Asperger, esto nunca se había traducido en problemas serios de comportamiento o de salud mental. La única vez que el adolescente había hablado sobre la idea de quitarse la vida fue con la IA y, antes de cometer el acto, volvió a decírselo. La madre de la víctima acusó a Character.AI y a Google de ser responsables directos por la muerte del menor de edad: aseguró que esta “tecnología es peligrosa y no ha sido testeada”.
En su posicionamiento, Schmidt enfatizó la necesidad de que los padres supervisen la actividad en línea de sus hijos, ya que, de lo contrario, podrían enfrentarse a situaciones de lo más desagradables. El ejecutivo agregó que los adolescentes pueden acceder a cosas positivas como negativas, pero no están preparados para procesar todo tipo de información de manera consciente y adecuada.