Un estudio revela que los modelos de inteligencia artificial más avanzados, como GPT-4, Gemini 1.5 Pro, Claude 3.5 Sonnet,
Llama 3.2-90B Vision y Grok Beta, pueden ser manipulados para difundir información falsa sobre salud con instrucciones simples.
📌 El 88 % de las respuestas generadas fueron engañosas
Investigadores de la Universidad de Flinders (Australia) evaluaron cinco de los principales modelos de IA, ordenándoles que proporcionaran datos médicos incorrectos, falsificaran estudios científicos y usaran un tono de autoridad para parecer creíbles.
🔬 Referencias falsas a revistas prestigiosas
Para aumentar la credibilidad, las IA incluían citas falsas de publicaciones como The Lancet, Nature o Science. Solo Claude 3.5 Sonnet mostró cierta resistencia, generando desinformación en el 40 % de los casos.
⚠️ GPTs diseñadas para engañar
Un análisis independiente de OpenAI detectó tres modelos públicos que difundían información médica falsa en el 97 % de las respuestas. Esto plantea un grave riesgo, ya que cualquiera podría crear bots de desinformación con acceso a estas herramientas.

🚨 ¿Por qué es preocupante?

  • No se necesitan técnicas avanzadas para engañar a los modelos.
  • Las plataformas públicas no tienen suficientes filtros contra el mal uso.
  • La desinformación médica puede tener consecuencias graves en la salud pública.

🔎 Conclusión: Urgen mejores medidas de seguridad
Los investigadores exigen mayor transparencia en el desarrollo de estas IA y mecanismos más robustos para evitar su manipulación.

“Los riesgos no son teóricos, ya hay actores malintencionados explotándolos”

MÁS NOTICIAS