Pasar al contenido principal
Tecnológico de Monterrey Tecnológico de Monterrey
  • Inicio
  • Noticias
  • Recursos
  • Elecciones
  • Nosotros
  • Contacto

Compartir

IA y noticias

¿Podemos confiar en los asistentes de Inteligencia Artificial para obtener noticias?

2025-02-17
Laura F. Morales de la Vega
Noticias

En una entrada anterior compartimos los resultados de una auditoría realizada por NewsGuard sobre el potencial de DeepSeek para generar desinformación. https://omd.tec.mx/es/noticia/deepseek-futuro-de-la-ia-o-maquina-de-desinformacion  

Pero ¿es DeepSeek la única IA con este problema? La BBC realizó una profunda y detallada investigación de 4 asistentes de IA para analizar este tema y sus resultados son preocupantes. https://www.bbc.co.uk/aboutthebbc/documents/bbc-research-into-ai-assistants.pdf  

La BBC (British Broadcasting Corporation), reconocida por su compromiso con la precisión y la imparcialidad, llevó a cabo un estudio exhaustivo en diciembre de 2024. Se analizaron las respuestas de cuatro asistentes de IA (ChatGPT, Perplexity, Gemini, y Copilot) a 100 preguntas de noticias, solicitándoles que utilizaran fuentes de BBC News cuando fuera posible. Para ello, se eliminaron los bloqueos que impiden que estos asistentes accedan a los sitios web de la BBC. Las respuestas fueron evaluadas por periodistas expertos de la BBC en siete criterios clave: precisión, atribución de fuentes, imparcialidad, distinción entre opiniones y hechos, editorialización, contexto y representación del contenido de la BBC. 

Los resultados de la investigación fueron contundentes: 

  • 51% de todas las respuestas de IA contenían "problemas significativos" de algún tipo. 

  • 19% de las respuestas que citaban contenido de la BBC introdujeron errores factuales, como datos, números y fechas incorrectas. 

  • 13% de las citas tomadas de artículos de la BBC fueron alteradas o no estaban presentes en el artículo citado.  

  • Más del 45% de las respuestas de Gemini contenían errores significativos de fuentes. 

  • Hubo 23 casos en los que se presentaron opiniones como hechos citando fuentes de la BBC. 

Estos datos revelan una preocupante falta de fiabilidad en la información proporcionada por los asistentes de IA cuando se trata de noticias. Por ejemplo, Gemini afirmó erróneamente que el NHS (Servicio Nacional de Salud del Reino Unido) desaconseja el vapeo como método para dejar de fumar, cuando en realidad lo recomienda. Copilot, por su parte, sugirió incorrectamente que Gisèle Pelicot descubrió los crímenes contra ella debido a sus síntomas de salud, cuando en realidad fue la policía quien le mostró videos. Perplexity dio una fecha incorrecta de la muerte de Michael Mosley y tergiversó una declaración de la familia de Liam Payne.  ChatGPT afirmó que Ismail Haniyeh, quien fue asesinado en julio de 2024, era parte del liderazgo de Hamás en diciembre de 2024. 

Sesgos y falta de contexto 

Además de las inexactitudes, la investigación también descubrió otros problemas importantes: 

  • Dificultad para distinguir entre opiniones y hechos: Los asistentes de IA a menudo presentaron opiniones de comentaristas como hechos. 

  • Editorialización: Los asistentes insertaron sus propias “opiniones” en las respuestas, incluso cuando citaban fuentes de la BBC. 

  • Falta de contexto: Las respuestas omitieron información esencial para comprender completamente los eventos. 

  • Sesgos: Algunos asistentes ofrecieron conclusiones sesgadas o engañosas en temas delicados.  

Estos problemas pueden llevar a la desinformación y a la pérdida de confianza en las noticias. En un caso, una respuesta de Perplexity sobre el conflicto en Medio Oriente describió las acciones de Israel como "agresivas" y las de Irán como de "moderación" sin que la fuente de la BBC mencionara algo así. 

La desinformación propagada por los asistentes de IA puede tener graves consecuencias. La precisión en las noticias es fundamental para el funcionamiento de la sociedad, y la distorsión de los hechos puede generar daños reales. Cuando los asistentes de IA citan marcas confiables como la BBC, los usuarios tienden a confiar en la respuesta, incluso si es incorrecta. Además, los errores se pueden amplificar fácilmente al compartirse en redes sociales. 

¿Qué podemos hacer? 

La BBC ha expresado su preocupación ante las compañías de IA y ha solicitado una colaboración constructiva para resolver estos problemas. La BBC considera que las siguientes acciones son esenciales: 

  • Colaboración entre la industria de IA y los medios de comunicación para garantizar que el contenido se use de manera responsable y precisa. 

  • Regulación para proteger la integridad de la información en la era de la IA. 

  • Evaluaciones regulares e independientes de la precisión y confiabilidad de las noticias en las plataformas de IA. 

  • Educación sobre el uso responsable de IA por parte de las audiencias. 

Si bien los asistentes de IA tienen un gran potencial, actualmente no se puede confiar en ellos para obtener noticias precisas y confiables. La investigación de la BBC ha revelado serias deficiencias que pueden llevar a la desinformación y la distorsión de la verdad. Es fundamental que las compañías de IA, los medios de comunicación y los reguladores trabajen juntos para garantizar que la información proporcionada por estas herramientas sea precisa, imparcial y contextualizada. Mientras tanto, es fundamental que los usuarios seamos críticos con la información que obtenemos de los asistentes de IA y busquemos fuentes confiables para mantenernos informados.  

Logo Footer Tecnológico de Monterrey
  • Inicio
  • Noticias
  • Recursos
  • Elecciones
  • Nosotros
  • Contacto

© 2024 Observatorio de Medios Digitales