En una entrada anterior compartimos los resultados de una auditoría realizada por NewsGuard sobre el potencial de DeepSeek para generar desinformación. https://omd.tec.mx/es/noticia/deepseek-futuro-de-la-ia-o-maquina-de-desinformacion
Pero ¿es DeepSeek la única IA con este problema? La BBC realizó una profunda y detallada investigación de 4 asistentes de IA para analizar este tema y sus resultados son preocupantes. https://www.bbc.co.uk/aboutthebbc/documents/bbc-research-into-ai-assistants.pdf
La BBC (British Broadcasting Corporation), reconocida por su compromiso con la precisión y la imparcialidad, llevó a cabo un estudio exhaustivo en diciembre de 2024. Se analizaron las respuestas de cuatro asistentes de IA (ChatGPT, Perplexity, Gemini, y Copilot) a 100 preguntas de noticias, solicitándoles que utilizaran fuentes de BBC News cuando fuera posible. Para ello, se eliminaron los bloqueos que impiden que estos asistentes accedan a los sitios web de la BBC. Las respuestas fueron evaluadas por periodistas expertos de la BBC en siete criterios clave: precisión, atribución de fuentes, imparcialidad, distinción entre opiniones y hechos, editorialización, contexto y representación del contenido de la BBC.
Los resultados de la investigación fueron contundentes:
Estos datos revelan una preocupante falta de fiabilidad en la información proporcionada por los asistentes de IA cuando se trata de noticias. Por ejemplo, Gemini afirmó erróneamente que el NHS (Servicio Nacional de Salud del Reino Unido) desaconseja el vapeo como método para dejar de fumar, cuando en realidad lo recomienda. Copilot, por su parte, sugirió incorrectamente que Gisèle Pelicot descubrió los crímenes contra ella debido a sus síntomas de salud, cuando en realidad fue la policía quien le mostró videos. Perplexity dio una fecha incorrecta de la muerte de Michael Mosley y tergiversó una declaración de la familia de Liam Payne. ChatGPT afirmó que Ismail Haniyeh, quien fue asesinado en julio de 2024, era parte del liderazgo de Hamás en diciembre de 2024.
Sesgos y falta de contexto
Además de las inexactitudes, la investigación también descubrió otros problemas importantes:
Estos problemas pueden llevar a la desinformación y a la pérdida de confianza en las noticias. En un caso, una respuesta de Perplexity sobre el conflicto en Medio Oriente describió las acciones de Israel como "agresivas" y las de Irán como de "moderación" sin que la fuente de la BBC mencionara algo así.
La desinformación propagada por los asistentes de IA puede tener graves consecuencias. La precisión en las noticias es fundamental para el funcionamiento de la sociedad, y la distorsión de los hechos puede generar daños reales. Cuando los asistentes de IA citan marcas confiables como la BBC, los usuarios tienden a confiar en la respuesta, incluso si es incorrecta. Además, los errores se pueden amplificar fácilmente al compartirse en redes sociales.
¿Qué podemos hacer?
La BBC ha expresado su preocupación ante las compañías de IA y ha solicitado una colaboración constructiva para resolver estos problemas. La BBC considera que las siguientes acciones son esenciales:
Si bien los asistentes de IA tienen un gran potencial, actualmente no se puede confiar en ellos para obtener noticias precisas y confiables. La investigación de la BBC ha revelado serias deficiencias que pueden llevar a la desinformación y la distorsión de la verdad. Es fundamental que las compañías de IA, los medios de comunicación y los reguladores trabajen juntos para garantizar que la información proporcionada por estas herramientas sea precisa, imparcial y contextualizada. Mientras tanto, es fundamental que los usuarios seamos críticos con la información que obtenemos de los asistentes de IA y busquemos fuentes confiables para mantenernos informados.