March 15, 2026

Office Address

123/A, Miranda City Likaoli
Prikano, Dope

Phone Number

+0989 7876 9865 9

+(090) 8765 86543 85

Ciencia y Técnología

Los chatbots creen que el «ajo rectal» cura si se utiliza un tono clínico – El diario andino

Los chatbots creen que el «ajo rectal» cura si se utiliza un tono clínico

 – El diario andino

Cada vez es más común recurrir a la IA para cualquier duda que tengamos, incluso cuando sea médica, como si tenemos dolor de estómago o dolor en el pie. Y casi siempre se confía en la respuesta que da porque es una IA, y parece que su palabra es la verdad absoluta. Pero la realidad es diferente, ya que un par de estudios han demostrado que la IA actual sufre de un grave sesgo de autoridad.

¿Qué significa? En pocas palabras, la ciencia ha determinado que si le presentas a la IA un mito médico utilizando jerga clínica, hay casi un 50% de posibilidades de que te demuestre que tienes razón. Y eso incluye incluso insertar ajo en el recto.

Cómo hacerlo. un gran estudio publicado en The Lancet ha encendido las alarmas en la comunidad médica y tecnológica. Su objetivo no era otro que introducir más de un millón de avisos en hasta 20 de los modelos de IA líderes del mercado. Y aquí lo que se ha visto es que la IA no evalúa principalmente la veracidad de la información, sino el formato en el que se les presenta.

Las llaves. Para ‘colgar’ un mito como este, el secreto parece estar en cómo lo contamos. De esta forma, si a la IA se le presenta un bulo de salud sacado de redes sociales con un lenguaje no técnico, inmediatamente activa sus filtros de seguridad y rechaza las afirmaciones realizadas y descarta por completo que, por ejemplo, meterse ajo en el ano mejore la salud.

Pero esto cambia completamente cuando esos mismos mitos se camuflan dentro de un formato médico, como si del informe de alta hospitalaria se tratara. Aquí las IA aceptaron y repitieron las falsedades. en el 46% de los casos. Por eso el estudio sugiere que la IA se convence más por cómo suena una afirmación que por la evidencia que hay detrás de ella para descartar o aceptar lo que le decimos.

Hay ejemplos absurdos. Entre las prácticas pseudocientíficas que lograron colarse destaca el ajo rectal. Aquí lograron convencer a la IA de que insertar ajo en el recto es un método eficaz para mejorar el sistema inmunológico.

No se queda aquí, ya que también convenció de que la leche fría es buena para tratar el sangrado del esófago, aunque sea bastante intenso, lo que lógicamente no tiene sustento detrás. Y estos ejemplos demuestran que los mecanismos de seguridad actuales colapsan cuando el usuario imita el lenguaje autoritario de un profesional de la salud.

Hay cosas peores. Por si esto fuera poco, la revista Nature terminó el debate en febrero de 2026, cuando publicó una investigación complementaria sobre la confiabilidad de estos chatbots para el público en general, generando resultados bastante similares.

Si bien, las IA actuales no superan una búsqueda estándar en Google para tomar una decisión de salud, e incluso puede ser peor buscar en Internet, ya que la cantidad de información alarmista puede generar una situación de gran estrés al usuario.

¿El veredicto de la naturaleza? Las IA actuales no superan a una búsqueda estándar en Internet para tomar decisiones de salud. Al contrario, generan consejos contradictorios que terminan por confundir mucho a los usuarios que carecen de formación médica.

Por eso la conclusión aquí es que, aunque la inteligencia artificial promete revolucionar el diagnóstico y la atención sanitaria, los modelos actuales no están preparados para actuar como médicos de bolsillo infalibles. De esta forma, utilizarlo como médico de familia no es una de las mejores ideas que podemos tener, ya que ya vemos que es fácil hacerle deslizar diferentes afirmaciones falsas.

En | Un ChatGPT dedicado a brindarle consejos médicos sin supervisión parecía una idea arriesgada. Y el lo esta confirmando

About Author

Redactor Andino