domingo, marzo 3, 2024

Desafíos éticos de la Inteligencia Artificial en comunicación

ARTÍCULO DE ESTEFANÍA CAMPOS ( ESTUDIO DE COMUNICACIÓN) / El avance de la inteligencia artificial (IA) plantea diversos desafíos éticos que es necesario abordar cuanto antes, para garantizar un desarrollo y un uso responsables de esta tecnología. En relación con la información y la comunicación, la IA presenta peligros que las sociedades debemos atajar, para que este gran avance tecnológico juegue a nuestro favor y no en nuestra contra.

ARTÍCULO PATROCINADO POR MYNEWS

Por Estefanía Campos, directora en Estudio de Comunicación / 30 de enero de 2024

El primer peligro tiene que ver con la posibilidad de que la desinformación crezca de manera exponencial, junto a la capacidad de manipular a la opinión pública. Hoy, la IA ya puede ser utilizada con facilidad para generar cantidades ingentes de contenido falso o manipulado -incluyendo imágenes, audios y videos sintéticos- cuya veracidad, en ocasiones, es difícil de comprobar. Esto plantea desafíos éticos relacionados con la propagación de desinformación y la capacidad de manipular la percepción pública más que nunca. La difusión de noticias falsas y la creación de contenido engañoso mediante el uso de la IA pueden afectar -y afectará sin duda- a la ya maltrecha confianza en la información.

Conflictos éticos

En segundo lugar, el filtrado de contenido y la censura son temas críticos relacionados con la utilización de algoritmos de inteligencia artificial para analizar y controlar la información que compartimos en las plataformas en línea, como redes sociales, blogs, foros y comunidades, entre otros.  

Dichos algoritmos, utilizados para intervenir en caso de infracción de las normas de uso de las plataformas, no son perfectos y cometen errores que, en ocasiones, derivan en la eliminación incorrecta de contenido legítimo. Estos errores o “fallos de los algoritmos” podrían considerarse una especie de censura supuestamente accidental, ya que afectan a la libertad de expresión y a la diversidad de opiniones.

Pero, además, la toma de decisiones sobre qué contenido filtrar mediante los algoritmos a menudo recae en las manos de las empresas que operan estas plataformas, lo que plantea preguntas éticas sobre quién tiene el poder y la responsabilidad de determinar qué información es aceptable y cuál debe eliminarse. Este control podría llevar a prácticas de censura real o a la tentación de hacer que ciertos puntos de vista predominen sobre otros.    

Libertad de elección

Volviendo a los desafíos generales de la IA en relación con la información y la comunicación, la personalización extrema de contenidos también presenta desafíos éticos. Los algoritmos que adaptan los contenidos que se nos presentan a nuestros intereses individuales para, supuestamente, mejorar nuestra experiencia como usuarios, generan «burbujas de filtro». Estas burbujas informativas hacen que estemos casi siempre expuestos a contenidos que confirman nuestras opiniones y creencias, lo que limita nuestra posibilidad de acceder a otros puntos de vista y discursos diferentes. Por tanto, la personalización extrema en las plataformas digitales no sólo merma considerablemente nuestra libertad de elección, sino que además contribuye a la polarización de las sociedades.

Manipulación

Otro gran peligro que plantea la IA es su creciente capacidad de manipulación emocional. La inteligencia artificial cada vez comprende mejor el detalle de las emociones que subyacen tras las palabras, los mensajes y el contenido visual que analiza. Eso significa que la posibilidad de que esta capacidad pueda ser utilizada de manera perversa por cualquier usuario de herramientas de IA para manipular las emociones de las personas es cada vez más factible.

Los derechos de autor y de propiedad intelectual también suponen un conflicto actualmente. Como se sabe, los chatbots de inteligencia artificial necesita contenidos de sitios online para generar sus textos y para entrenarse. Hoy, diversos medios están llegado a acuerdos con compañías de IA como OpenAI para que estas herramientas puedan entrenarse con sus contenidos y ofrecer resúmenes de sus noticias. En diciembre del año pasado, por ejemplo, el grupo mediático alemán Axel Springer se asoció con la creadora de ChatGPT para que el famoso chatbot pueda responder a las preguntas de sus usuarios con información extraída de cabeceras como Político, Business Insider, Bild o Die Welt.  Otros acuerdos se han ido sumando después, pero la IA sigue bebiendo de diversas fuentes saltándose los derechos de propiedad de sus autores. En todo caso, demostrarlo no resulta fácil. Veremos cómo evoluciona la denuncia que acaba de interponer a el prestigioso New York Times a OpenAI en este sentido.

Brecha digital

Finalmente, la implementación de tecnologías de IA en comunicación podría ampliar la brecha digital existente, dejando a ciertos grupos de la sociedad sin acceso a información y servicios. La falta de accesibilidad plantea preocupaciones éticas sobre la marginación y mala representación de comunidades en un contexto de mayor implementación de la IA.

A día de hoy, son varios los desafíos éticos que plantea la incorporación de la IA a los procesos de información y de comunicación. Atender a dichos desafíos en estos primeros momentos de la inteligencia artificial es fundamental para garantizar que ésta se desarrolle y se utilice de manera responsable y beneficiosa para la sociedad en su conjunto. En este sentido, la colaboración entre la industria, los gobiernos, los investigadores y la sociedad civil es esencial.


ARTÍCULO PATROCINADO POR MYNEWS