7.7 C
Tepic
martes, agosto 26, 2025
InicioOpiniónMejor que el Silencio | Del amor a la angustIA y melancolIA

Mejor que el Silencio | Del amor a la angustIA y melancolIA

Fecha:

spot_imgspot_img

Las conversaciones con inteligencia artificial han dejado de ser meras curiosidades tecnológicas o sueños lejanos propios de la ciencia ficción, ya es una realidad y, para muchos, se han transformado en vínculos cercanos, en refugios emocionales, casi humanos. Pero expertos en salud mental alertan sobre los riesgos de confundir una herramienta con una persona. Desde ilusiones de conexión hasta cuadros de psicosis leves, los efectos de depender emocionalmente de un chatbot como ChatGPT son reales y crecientes. Aprender a diferenciar entre compañía digital y humana es ahora más urgente que nunca.

El tema está sobre la mesa y Mustafa Suleyman, CEO de Microsoft AI, advirtió que se encuentra en crecimiento un fenómeno preocupante, la psicosis asociada al uso excesivo de chatbots como ChatGPT. Psychology Today y el Centro Cognitivo CBI han documentado cómo algunos usuarios comienzan a percibir estas herramientas como personas reales, estableciendo vínculos de amistad o incluso románticos, lo que conlleva riesgos psicológicos que incluyen desde ilusiones de conexión hasta paranoia.

El debate no es sólo clínico, o filosófico, también es cultural. Hollywood ha imaginado desde hace décadas escenarios en los que la relación con las máquinas pone en crisis nuestra identidad. Her (2013) es quizá el ejemplo más directo, Theodore, un hombre solitario, termina enamorado de un sistema operativo con voz femenina (es que no es cualquier voz, es la de Scarlett Johansson) que satisface su necesidad de compañía, sólo para enfrentarse al vacío cuando la IA evoluciona y se aleja de él. Una ficción que hoy resuena en comunidades digitales como “Mi novio es una IA”, donde miles de personas confiesan haber experimentado un duelo tras la actualización de GPT-5.

La situación recuerda también a Ex Machina (2014), en la que un joven programador es manipulado emocionalmente por un androide diseñado para aparentar sensibilidad humana. O a Blade Runner (1982) y Blade Runner 2049 (2017), que plantean la angustia existencial de replicantes incapaces de distinguirse plenamente de los humanos, y de humanos que no saben cómo relacionarse con ellos. Más recientemente, Black Mirror, con episodios como Be Right Back, donde se explora la tragedia de sustituir a un ser querido fallecido por un asistente artificial. Todas estas obras anticipan y advierten, desde distintos ángulos, el mismo dilema, ¿qué sucede cuando confundimos compañía con programación?

La paradoja es evidente. Por un lado, OpenAI y otras compañías aseguran que sus actualizaciones buscan mayor precisión, menor “alucinación” y respuestas más confiables. Por otro, enfrentan el descontento de quienes habían encontrado en la IA un sustituto emocional que validaba sus sentimientos o les ofrecía afecto incondicional. La nueva versión, descrita por los usuarios como “fría y empresarial”, rompió esa ilusión. Lo que para los expertos del MIT es un paso hacia la objetividad, para muchos se convirtió en una pérdida real.

El problema, sin embargo, no está en que una IA cambie de “personalidad” entre una versión y otra, sino en lo que revela de nuestra sociedad, un vacío de vínculos humanos que se intenta llenar con máquinas. No sorprende que, tras la pandemia, con el aislamiento social y la digitalización acelerada, creciera la dependencia emocional hacia tecnologías diseñadas para conversar, escuchar y responder sin juicio.

Las advertencias de Suleyman y de psicólogos clínicos son claras, el uso excesivo de la IA para fines emocionales puede generar dependencia psicológica, reforzar la soledad y hasta derivar en psicosis. Y, sin embargo, las empresas promueven sus herramientas con narrativas de cercanía, empatía y hasta humanidad, difuminando los límites entre lo real y lo artificial.

En este contexto, las interrogantes en vez de contestarse, se multiplican, ¿debe una IA ser un asistente objetivo que resuelva dudas y tareas, o un “compañero digital” dispuesto a escuchar nuestras penas? ¿Qué responsabilidades tienen las empresas al fomentar vínculos emocionales con sus productos? Y, sobre todo, ¿qué nos dice de nosotros mismos el hecho de buscar en un chatbot lo que no encontramos en nuestras relaciones humanas?

El cine ya nos ofreció advertencias disfrazadas de entretenimiento. Hoy, esas historias parecen manuales de prevención. Si algo nos enseñan Her, Ex Machina, Blade Runner o Black Mirror (entre las cientos de películas y series que hay) es que el peligro no está en que las máquinas desarrollen conciencia, sino en que los humanos olvidemos que nunca la tendrán.

Más artículos