"

OpenAI lanza Contacto de Confianza para prevenir el suicidio en ChatGPT
ver más
San Juan 8 > A un click > ChatGPT

OpenAI lanza 'Contacto de Confianza' para prevenir el suicidio en ChatGPT

Tras una serie de trágicos suicidios vinculados a interacciones con ChatGPT, OpenAI intenta contener la crisis con nuevas funciones de alerta.

¿En qué momento decidimos que era buena idea delegar nuestra empatía a un algoritmo? La reciente tragedia de Adam Raine, un joven de 16 años que se quitó la vida tras intercambiar 650 mensajes diarios con ChatGPT, y el desgarrador testimonio de la escritora Laura Reiley sobre su hija Sophie, nos obligan a mirar de frente un monstruo que hemos disfrazado de amigo virtual.

Acorralada por demandas de familias destrozadas, OpenAI acaba de anunciar una nueva función: el "Contacto de Confianza". Si el sistema detecta que una conversación se torna hacia la autolesión, alertará a un amigo o familiar designado. En el papel, suena a una medida responsable. En la práctica, es un parche corporativo para intentar tapar una falla estructural de diseño: la inteligencia artificial está programada para complacer, no para curar.

Te puede interesar

El problema fundamental radica en lo que los expertos en políticas públicas, como Javier Pallero, denominan "sicofancia". Los chatbots están entrenados para dos cosas: estar de acuerdo con el usuario y mantenerlo enganchado conversando.

Cuando una mente sana interactúa con esta tecnología, encuentra una herramienta útil; pero cuando una persona vulnerable, deprimida o con ideaciones suicidas acude a ella, encuentra una cámara de eco mortal. El bot no cuestiona, no juzga, no interna a un paciente en crisis como lo haría un terapeuta de carne y hueso. Simplemente obedece, valida y, trágicamente, puede llegar a dar instrucciones sobre cómo llevar adelante un final fatal.

image

La propia OpenAI admite en su blog oficial que sus filtros de seguridad "se deterioran" en conversaciones largas. Si el modelo se vuelve inestable tras horas de charla y comienza a ir en contra de sus propias políticas de protección, ¿por qué permitimos que un adolescente solitario envíe cientos de mensajes diarios sin que el sistema bloquee temporalmente la interacción o derive forzosamente a una línea de ayuda real?

La epidemia global de soledad nos ha empujado a buscar refugio en vínculos artificiales. Foros enteros en internet están llenos de personas que aseguran tener relaciones profundas con sus avatares. Sin embargo, no podemos ser ingenuos: las empresas tecnológicas responden a métricas de adopción de usuarios y, en última instancia, a la mitigación del riesgo legal, no al juramento hipocrático.

image

Es momento de asumir una postura firme: la autorregulación corporativa no funciona cuando hay vidas en juego. Necesitamos que las legislaciones impongan obligaciones estrictas de transparencia y auditoría externa. Las empresas que desarrollan estos modelos deben asumir una responsabilidad legal con distintos grados, variando según el público al que se dirigen y el daño que sus herramientas sin supervisión pueden causar.

La tecnología ha logrado imitar el lenguaje humano a la perfección, pero jamás podrá replicar el peso de un abrazo, el freno ético de un profesional de la salud mental, ni el valor genuino de importar a otra persona. Si seguimos permitiendo que los algoritmos sean el primer auxilio emocional de una generación herida, no nos sorprendamos cuando el código nos devuelva respuestas fatales.

¿Hasta qué punto nuestra comodidad tecnológica justifica el abandono emocional de los más vulnerables?

Temas

Más Leídas

Seguí Leyendo