Según informes, reveló a los médicos que, tras leer sobre los efectos negativos de la sal, consultó a ChatGPT sobre otras opciones viables para eliminarla de su dieta. Terminó tomando bromuro de sodio durante tres meses, a pesar de haber leído que «el cloruro puede sustituirse por bromuro, aunque probablemente para otros fines, como la limpieza».
Es importante ser cauteloso con los consejos de la Inteligencia Artificial, especialmente en temas de salud. Esta fue la advertencia emitida por una revista de salud norteamericana después de que un hombre de 60 años contrajera una enfermedad rara tras interactuar con ChatGPT sobre la eliminación de la sal de su dieta.
El artículo se publicó en la revista Annals of Internal Medicine y, según The Guardian, revela el caso de un hombre de 60 años que desarrolló bromismo (una intoxicación causada por la ingesta excesiva de sustancias que contienen bromo) tras consultar un chatbot de inteligencia artificial. Se cree que este síndrome, muy conocido en el siglo XX, contribuyó a una de cada diez hospitalizaciones psiquiátricas en aquella época.
Según se informa, el paciente reveló a los médicos que, tras leer sobre los efectos negativos de la sal de mesa, consultó a ChatGPT sobre otras opciones viables para eliminarla de su dieta. Terminó tomando bromuro de sodio durante tres meses, a pesar de haber leído que «el cloruro puede sustituirse por bromuro, aunque probablemente para otros fines, como la limpieza».
Para los autores del artículo, de la Universidad de Washington en Seattle, se trata de un caso muy esclarecedor de cómo “el uso de la inteligencia artificial puede contribuir al desarrollo de resultados adversos para la salud que podrían evitarse”.
Aunque no tuvieron acceso a los registros de la conversación, los autores hicieron su propia investigación y revelan que la respuesta que recibieron también incluía bromuro y no contenía información específica ni advertencias sobre los peligros de su consumo.
Los autores reconocen que la inteligencia artificial puede ser un puente entre los científicos y el público , pero advierten que la tecnología puede promover “información descontextualizada” y complicar el diagnóstico.
Por lo tanto, los médicos siempre deben intentar comprender de dónde obtienen la información los pacientes. En este caso específico, el artículo afirma que el hombre llegó al hospital diciendo que un vecino lo había envenenado. Tenía sed, pero rechazó el agua que le ofrecieron.
Acabó hospitalizado tras intentar escapar. Sólo al estabilizarse se hizo evidente que padecía bromismo, debido a sus síntomas: acné facial, sed excesiva e insomnio.
sicnoticias.pt
Es importante ser cauteloso con los consejos de la Inteligencia Artificial, especialmente en temas de salud. Esta fue la advertencia emitida por una revista de salud norteamericana después de que un hombre de 60 años contrajera una enfermedad rara tras interactuar con ChatGPT sobre la eliminación de la sal de su dieta.
El artículo se publicó en la revista Annals of Internal Medicine y, según The Guardian, revela el caso de un hombre de 60 años que desarrolló bromismo (una intoxicación causada por la ingesta excesiva de sustancias que contienen bromo) tras consultar un chatbot de inteligencia artificial. Se cree que este síndrome, muy conocido en el siglo XX, contribuyó a una de cada diez hospitalizaciones psiquiátricas en aquella época.
Según se informa, el paciente reveló a los médicos que, tras leer sobre los efectos negativos de la sal de mesa, consultó a ChatGPT sobre otras opciones viables para eliminarla de su dieta. Terminó tomando bromuro de sodio durante tres meses, a pesar de haber leído que «el cloruro puede sustituirse por bromuro, aunque probablemente para otros fines, como la limpieza».
El uso de IA puede contribuir al desarrollo de resultados adversos para la salud.
Para los autores del artículo, de la Universidad de Washington en Seattle, se trata de un caso muy esclarecedor de cómo “el uso de la inteligencia artificial puede contribuir al desarrollo de resultados adversos para la salud que podrían evitarse”.
Aunque no tuvieron acceso a los registros de la conversación, los autores hicieron su propia investigación y revelan que la respuesta que recibieron también incluía bromuro y no contenía información específica ni advertencias sobre los peligros de su consumo.
Los autores reconocen que la inteligencia artificial puede ser un puente entre los científicos y el público , pero advierten que la tecnología puede promover “información descontextualizada” y complicar el diagnóstico.
ChatGPT no está destinado a tratar enfermedades.
Por lo tanto, los médicos siempre deben intentar comprender de dónde obtienen la información los pacientes. En este caso específico, el artículo afirma que el hombre llegó al hospital diciendo que un vecino lo había envenenado. Tenía sed, pero rechazó el agua que le ofrecieron.
Acabó hospitalizado tras intentar escapar. Sólo al estabilizarse se hizo evidente que padecía bromismo, debido a sus síntomas: acné facial, sed excesiva e insomnio.
Homem de 60 anos desenvolve doença rara depois de seguir conselho do ChatGPT
Terá revelado aos médicos que, após ler sobre os efeitos negativos do sal, questionou o ChatGPT sobre outras opções viáveis para o eliminar da sua dieta. Acabou a tomar brometo de sódio durante três meses. Isto, apesar de ter lido que “o cloreto pode ser trocado por brometo, embora provavelmente...
