⚰️🏝️ La isla donde está prohibido morir: Svalbard, Noruega

¿Y si tu chatbot favorito te dijera que cambies la sal por veneno? ¿Le harías caso?
Un hombre de 69 años en EE. UU. terminó hospitalizado tras seguir una sugerencia de ChatGPT. ¿La causa? Sustituyó la sal por bromuro de sodio, una sustancia tóxica retirada del mercado hace décadas. ¿La razón? Quería reducir su consumo de sodio. ¿El resultado? Alucinaciones, paranoia, lesiones en la piel y una intoxicación tan rara que los médicos tardaron semanas en identificarla.
Por poco muere mientras hacía snorkel: la lancha pasó sobre su cabeza
⚠️ La historia completa
- El hombre buscaba alternativas “más saludables” al cloruro de sodio.
- ChatGPT (versión anterior) le sugirió el bromuro de sodio, sin advertirle de su toxicidad.
- Durante tres meses lo consumió a diario.
- Fue diagnosticado con bromismo, una intoxicación grave que afecta el sistema nervioso.
🧪 ¿Qué es el bromuro de sodio?
- Usado en el pasado como sedante y anticonvulsivo.
- Retirado por sus efectos secundarios: confusión mental, erupciones, alteraciones neurológicas.
- No es apto para consumo humano desde hace décadas.
🤖 ¿Qué responsabilidad tiene la IA?
Este caso abre una conversación urgente:
- ¿Hasta dónde confiamos en la inteligencia artificial?
- ¿Quién verifica la información que nos da?
- ¿Qué pasa cuando el usuario interpreta mal una sugerencia?
🧠 La inteligencia artificial no tiene cuerpo, pero puede afectar el tuyo. Antes de seguir cualquier consejo, especialmente de salud, consulta con un humano que haya estudiado para eso. Porque aunque la IA puede parecer sabia, pero no tiene piel que duela ni corazón que se detenga.
Comentarios
Publicar un comentario