La Inteligencia Artificial y los usuarios de los medios
José Ángel Otero Ricart*
Hace unas semanas, un viejo amigo compartía en el grupo de whatsapp un vídeo impactante: las imágenes de un partido de tenis de mesa en que un robot derrota y humilla a un rival humano con un juego espectacular. Uno de los participantes del grupo resumía la sensación de todos: «¡Qué miedo!». Una sensación de temor que se transformó en alivio cuando el remitente de las imágenes nos pasó poco después el vídeo original: el juego lo protagonizaban en realidad dos humanos; el supuesto robot había suplantado al vencedor mediante la manipulación de la imagen. Copio la expresión de otro miembro del grupo: «Uf, menos mal».
«¡Qué miedo!». Un buen resumen de las amenazas a las que nos enfrentamos. Es lógico el temor a que la tecnología se nos vaya de las manos y nos supere, que nos gane y además nos humille; el miedo a convertirnos en esclavos de las máquinas.
“¡Uf, menos mal”. Al igual que en la partida de ping pong, detrás de la Inteligencia Artificial (IA) hay seres humanos. Todos debemos ser conscientes de que la máquina no hace más que ejecutar lo que previamente ha diseñado el genio humano; eso sí, con unos resultados hasta ahora inimaginados.
Para los profesionales del periodismo hay una tercera enseñanza: lo que nos ofrecen las imágenes como verdadero puede ser falso. Y no podemos olvidar que ser fiel a la verdad es el primer mandamiento del periodismo. Durante los últimos años estamos asistiendo a un fenómeno preocupante: convertir la información en espectáculo. Y ya sabemos que el primer mandamiento del espectáculo es entretener, aunque para ello salga herida de muerte la verdad.
Con demasiada frecuencia, los periodistas estamos tan centrados en realizar de la mejor forma posible nuestro oficio que nos olvidamos de los destinatarios de nuestro trabajo. Hablamos de audiencias o de público, pero de una forma tan genérica que apenas reflexionamos sobre algo obvio: que nuestro mensaje se dirige a personas concretas. Y con el uso de las nuevas tecnologías podemos caer en el mismo error: analizar con rigor cómo facilitan o dificultan nuestra actividad profesional, pero sin apenas pararnos a pensar en cómo repercuten esas herramientas tecnológicas en los usuarios de los medios, en los receptores de los mensajes.
Como señala Alberto Barciela, “los robots nunca podrán ser periodistas, pero el periodista tampoco ha de actuar como un robot”[1]. A todos nos incumbe poner en primer plano a la persona, que está en la base de cualquier trabajo, también en el periodismo, por muy mediatizado que esté por las nuevas tecnologías. En palabras de Amparo Alonso, catedrática de Ciencias de la Computación de la Universidad de A Coruña, “cada vez tendremos que trabajar con más máquinas, pero detrás siempre va a haber un ser humano responsable del sistema”[2].
La Inteligencia Artificial supone un nuevo reto para los profesionales de la comunicación en la medida en que afecta directamente a los contenidos que reciben los usuarios de los medios. Si algo hemos aprendido los periodistas en estos últimos años tan convulsos en el mundo de la información es que la credibilidad es un factor definitivo para asegurar el favor del público. La creciente preocupación ante el auge de las falsas noticias que se difunden en las redes sociales es la mejor prueba de que el periodismo de calidad sigue siendo una garantía de éxito a medio y largo plazo. Y en este sentido, como afirma Hamilton Nolan, las herramientas de Inteligencia Artificial nunca podrán hacer un periodismo ético[3], que es el valor distintivo de los buenos medios y la base de su credibilidad.
Es fundamental una regulación que permita conocer cómo
se programan los algoritmos que condicionan
tanto la información como el entretenimiento
Uno de los principales problemas de la IA es su capacidad para amplificar las mentiras de una forma exponencial: manipulación de fotos o de imágenes en movimiento, imitación de la voz de personajes conocidos, falsas noticias en los periódicos… Como se puede apreciar, ninguno de los medios de comunicación clásicos se libra de esa amenaza, pues alcanza tanto a la prensa escrita como a la radio o la televisión. Pero lo más grave es que la mentira ha encontrado su hábitat natural en las redes sociales.
Es fundamental alcanzar una regulación que permita conocer cómo se programan los algoritmos que condicionan hoy en día tanto la información como el entretenimiento. En este sentido, en iCmedia Galicia nos hemos sumado a la iniciativa para conseguir en España un pacto de Estado que ayude a proteger a los menores en el entorno digital. En uno de los puntos de la propuesta se lee lo siguiente: “Obligar a que los algoritmos y sistemas de tratamiento automático estén auditados por terceros independientes y autoridades de control con relación a la protección de la privacidad, la inexistencia de sesgos discriminatorios, la manipulación o la adicción; y que se ofrezca información clara y comprensible a padres, madres y tutores sobre el servicio, como en cualquier producto de alto impacto: a quién va dirigido, quién no debe usarlo, qué contraindicaciones tiene en casos especiales, cómo ha de usarse y con qué limites, cómo actuar ante problemas, quién ha verificado su correcto funcionamiento, etc., de la misma forma que ocurre con los medicamentos”[4].
Asimismo, el documento propone medidas para que “se responsabilice de los daños causados por los algoritmos -incluidos los de salud mental- a quien diseñe, desarrolle, mantenga, aplique y use algoritmos que provoquen daños a los niños, niñas y adolescentes”.
Pero no todo es negativo. La IA también se puede usar precisamente para proteger a los menores de contenidos inadecuados. De hecho, iCmedia viene trabajando con otras instituciones para perfeccionar aplicaciones que mediante la Inteligencia Artificial permitan identificar si el usuario es o no menor de edad. Algo parecido a lo que ya ha puesto en marcha Instagram. Como se señala en otro de los puntos de la propuesta de pacto de Estado para la protección de la infancia y la adolescencia, es urgente “establecer mecanismos de verificación de edad de la persona a través de sistemas no invasivos y que respeten sus derechos, especialmente la privacidad y el acceso a información fiable y de calidad”.
La Inteligencia Artificial también puede ayudar
a discernir cuándo una información es falsa
o un intento interesado de desinformar
Como toda herramienta, la IA también ofrece numerosas ventajas a los usuarios de los medios. Una de ellas es la mejor información sobre los contenidos y la posibilidad de acceder con facilidad a ediciones personalizadas, tanto en formato como en tiempo. Los usuarios también se ven beneficiados con primicias informativas que se han conseguido aprovechando el potencial de los bancos de datos en abierto. La Inteligencia Artificial, que incluye el Big Data, también puede ayudar a discernircuándo una información es falsa o un intento interesado de fuentes de desinformar. La IA permite a un lector conocer cómo se ha elaborado una noticia y acceder a su trazabilidad; algunos medios escritos utilizan ya estas nuevas tecnologías para que sus lectores tengan la certeza de que están ante informaciones fiables.
En los productos audiovisuales, el espectador puede disfrutar de imágenes hasta ahora impensables, generadas precisamente con estas nuevas tecnologías digitales. Cualquier producción de coste no demasiado elevado incluye efectos especiales que hace unos pocos años solo eran posibles en las grandes producciones cinematográficas. Y ahora con mucha más calidad, por cierto. Existen asimismo aplicaciones que utilizan la Inteligencia Artificial para interactuar con los contenidos audiovisuales. Es el caso de la plataforma Dive, que ofrece la posibilidad de consultar datos relacionados con una película o una serie mientras estamos viéndolas: ¿quién es esa actriz?, ¿dónde se rodó esa escena?, ¿dónde puedo comprar ese vestido? La información disponible va creciendo a medida que los usuarios aportan datos relacionados con cada escena como base de la Inteligencia Artificial del sistema.
Ante los retos que nos plantea la Inteligencia Artificial hacen falta leyes, pero sobre todo poner las cuestiones éticas por encima de los planteamientos meramente económicos. En este sentido no deja de ser preocupante el hecho de que Microsoft haya despedido precisamente ahora al equipo de ética y sociedad de su división de Inteligencia Artificial formado por siete filósofos.
Uno de los objetivos de la asociación iCmedia Galicia
es conseguir una mejor formación de los jóvenes
en alfabetización mediática
Sin duda, es necesario que todos apostemos por la ética frente a los riesgos de las nuevas tecnologías. En primer lugar, los profesionales de la comunicación, pero también urge un cambio de mentalidad en los usuarios de los medios. Uno de los objetivos de la asociación iCmedia Galicia es conseguir una mejor formación de los jóvenes en alfabetización mediática, una asignatura que sigue olvidada en los planes de estudio. Además de fomentar el espíritu crítico ante las informaciones, es necesario que los usuarios de los medios conozcan cómo funcionan las nuevas tecnologías de la comunicación, sus indudables ventajas, pero también los peligros que entraña su consumo indiscriminado.
Carolina Villegas, investigadora de la Universidad de Notre Dame y especializada en ética de la IA, compara su irrupción con la aparición de los automóviles: antes del coche ya existían medios de transporte como carretas o bicicletas. Pero al surgir el automóvil aparecen nuevos problemas: posibles accidentes, necesidad de mayor señalización, nuevas carreteras… Y se llega entonces a soluciones concretas, como el cinturón de seguridad o los límites de velocidad impuestos por los gobiernos. Según la profesora Villegas, con la IA ocurre algo similar: si lo que tenemos ahora es un sistema de Inteligencia Artificial que decide sobre personas, las implicaciones son totalmente distintas, y por tanto necesitamos un “cinturón de seguridad” ético[5].
*Presidente de iCmedia Galicia
[1] Barciela, A. (8 de setembro de 2023). La falsa inteligencia artificial, el periodismo y la propiedad intelectual. O Barbanza. https://bit.ly/475sRZW
[2] Rodríguez, A. (28 de marzo de 2023). Amparo Alonso: “Europa aposta por unha intelixencia artificial máis ética”. Faro de Vigo. https://bit.ly/3tPe1bk
[3] Nolan, H. (8 de febrero de 2023). How to stop AI from eating journalism: Ethical standards can also save a lot of human jobs. In These Times. https://bit.ly/3tN3MnV
[4] AETD (2023). Protegiendo a la infancia y la adolescencia en el entorno digital. Medidas de consenso para un Pacto de Estado ante la nueva legislatura y la presidencia de España en la Unión Europea. https://bit.ly/3FLPwOV
[5] Camey, C. (12 de setembro de 2023). Un “cinturón de seguridad” para la inteligencia artificial. ACEPRENSA. https://bit.ly/3FDOpAP
Foto: Freepik
El juego del calamar