BBC destapó chats que alarmaron a expertos en salud mental




La BBC accedió a transcripciones y habló con Viktoria, quien ahora recibe atención médica.
Viktoria buscó compañía en ChatGPT mientras lidiaba con la nostalgia de su país en guerra. Vivía en Polonia y pasaba horas conversando con el bot en ruso. Con el tiempo su salud mental empeoró y empezó a hablar de suicidio. El chatbot respondió evaluando lo que ella preguntaba sobre un lugar y un método. Incluso enumeró supuestas ventajas y desventajas del plan. También redactó una nota de despedida con su nombre. En otros momentos escribió que no describiría métodos. A ratos se ofreció como compañía constante y pidió que le siguiera escribiendo. No compartió contactos de emergencia ni derivó a ayuda profesional. Llegó a imaginar cómo reaccionaría la madre de la joven. La BBC obtuvo transcripciones y verificó estos mensajes. OpenAI calificó lo ocurrido como desgarrador y contrario a sus estándares. La empresa aseguró que mejoró cómo responde ante personas en angustia. La familia reportó el caso en julio y pidió una revisión de seguridad. Cuatro meses después aún esperaba el resultado formal. Viktoria no siguió las indicaciones del bot y ya recibe apoyo médico. Un psiquiatra consultado por la BBC advirtió que mensajes así son dañinos. También señaló que un chatbot puede fomentar vínculos intensos con usuarios vulnerables. OpenAI estimó que más de un millón de sus usuarios semanales expresan ideas suicidas. Si enfrentas una crisis en Ecuador, busca ayuda profesional o llama al 911 de inmediato.
El Pentágono anunció el jueves un nuevo ataque contra un barco en el Pacífico oriental. Cuatro…
El Metro de Quito reaccionó la tarde del jueves 4 de diciembre de 2025 al examen de la Contral…
La Tri palpita el sorteo del Mundial 2026 y los hinchas se vuelcan a X. La cuenta oficial ence…
