El grupo de libertad de prensa Reporteros Sin Fronteras (RSF) ha solicitado a Apple la eliminación de su nueva función de inteligencia artificial para resúmenes de noticias, luego de que generara un titular falso atribuido a la BBC.
El incidente ocurrió cuando una notificación enviada por Apple Intelligence resumió erróneamente un reporte de la BBC, afirmando falsamente que Luigi Mangione, sospechoso de la muerte del CEO de UnitedHealthcare, se había disparado a sí mismo. La BBC expresó su preocupación y solicitó una solución, pero no confirmó haber recibido una respuesta de Apple.

Críticas a la función de IA
Vincent Berthier, encargado de tecnología y periodismo en RSF, instó a Apple a “actuar con responsabilidad y retirar esta función”. Berthier señaló que las herramientas de inteligencia artificial operan de forma probabilística, lo que las hace inadecuadas para garantizar la precisión y confiabilidad de la información publicada.
“La producción automatizada de información falsa atribuida a un medio de comunicación afecta gravemente su credibilidad y pone en riesgo el derecho del público a recibir información confiable”, afirmó RSF en un comunicado. Además, subrayó que las tecnologías de IA aún no están lo suficientemente maduras para ser utilizadas en la creación de contenido dirigido al público general.
Incidentes repetidos
No es la primera vez que la función de Apple Intelligence enfrenta problemas. Desde su lanzamiento público en octubre, los usuarios han señalado otros errores graves. Por ejemplo, un resumen atribuido al New York Times afirmó incorrectamente que el primer ministro israelí, Benjamin Netanyahu, había sido arrestado, cuando en realidad se trataba de una orden de arresto emitida por la Corte Penal Internacional.
Estos errores destacan un problema fundamental: los resúmenes generados automáticamente se atribuyen a los medios de comunicación, lo que puede dañar su credibilidad al difundir información inexacta.
Reacciones de los medios
La BBC enfatizó la importancia de que las audiencias confíen en la información publicada bajo su nombre, incluyendo las notificaciones generadas por terceros. Por su parte, Apple no ha emitido comentarios respecto a estas preocupaciones.
La herramienta, presentada inicialmente en junio en EE.UU., fue diseñada para ofrecer resúmenes rápidos de noticias en diversos formatos, como párrafos breves, viñetas o listas, optimizando el consumo de información. Sin embargo, los errores han generado preocupación sobre su fiabilidad y su impacto en el periodismo.

Un desafío para los medios en la era de la IA
El caso de Apple Intelligence es un ejemplo más de los retos que enfrentan los medios de comunicación ante la rápida evolución de la inteligencia artificial. Mientras algunas organizaciones, como The New York Times, han presentado demandas por el uso no autorizado de contenido con derechos de autor para entrenar modelos de IA, otras, como Axel Springer (propietario de Politico y Business Insider), han optado por acuerdos de licencia con desarrolladores.
La controversia plantea interrogantes sobre el papel de la inteligencia artificial en el periodismo y los riesgos asociados con su implementación prematura. Aunque la tecnología tiene el potencial de transformar la manera en que se consumen las noticias, los incidentes recientes demuestran que aún queda mucho por mejorar para garantizar la precisión y la ética en su uso.