UncategorizedEl impacto de la inteligencia artificial en el periodismo y otros ámbitos de la comunicación

El impacto de la inteligencia artificial en el periodismo y otros ámbitos de la comunicación

Apuntes del curso “Cómo usar ChatGPT y otras herramientas de IA generativa en tu redacción”, impartido por el Centro Knight para el Periodismo en las Américas.

PARTE I

Independientemente del área de especialización de un comunicador, su rol siempre implicará la gestión de información y la creación de contenidos como tareas fundamentales. Por eso, en el centro de la discusión sobre Inteligencia Artificial (IA) está el tema de la creación de contenidos y, de manera especial, el periodismo y la producción de noticias. Por eso, realizaré dos entregas en el blog, sobre la implementación de ChatGPT y otras herramientas de Inteligencia Artificial Generativa, a partir de mi participación en el curso: “Cómo usar ChatGPT y otras herramientas de IA generativa en tu redacción”, impartido por el Centro Knight para el Periodismo en las Américas, entre septiembre y octubre de 2023.

Durante el primer módulo del curso, se repasaron los fundamentos conceptuales de IA, comenzando por una definición que la misma instructora experta del módulo, Aimee Rinehart, gerente senior de Producto de Inteligencia Artificial de Associated Press, describió como sencilla: “la Inteligencia Artificial (IA) es un subcampo de la informática”. Y me encanta la siguiente idea que agregó a su definición: “la palabra inteligencia indica que la computadora de alguna manera tiene libre albedrío o puede razonar, pero no puede”. Sirva esta introducción para ir disipando un poco el pavor de quienes piensan que esta podría reemplazar la inteligencia humana porque, de hecho, esta debe ser entrenada, primero, con información generada por los humanos.

Si bien, ChatGPT es el sistema más popular, y del que pareciera que todos hablan, hay otros sistemas de IA generativa, como son: Bard de Google y Claudde de Anthrophics, los cuales, de acuerdo con Rinehart, a veces ofrecen mejores resultados. Pero como ella misma señala, ChatGPT es el primero y ya cuenta con más de 100 millones de usuarios. Una cifra que parece insinuar que, ciertamente, hay mucha necesidad de herramientas como estas en determinados campos profesionales. Sin embargo, la pregunta sobre cuán segura es la herramienta para garantizar la calidad del trabajo que realiza parece haber llegado en el mismo paquete que sus bondades, por lo que esta es una discusión activa que todavía no ha arrojado ideas conclusivas. Pero hay muchas implementaciones en curso, e incluso resultados de su aplicación, que ya pueden ser consultados como referencia del tema. Nos toca, mientras tanto, seguir asistiendo como humanidad a los descubrimientos que van ocurriendo en simultáneo con el transcurrir de nuestras vidas, y eso parece generar bastante inquietud, sobre todo, porque heredamos muchos otros descubrimientos a los que solo llegamos, los usamos y los dimos por hecho.

Ahora estamos en el centro de los cambios que se están gestando, tanto a nivel tecnológico como en otros ámbitos que también afectan directamente la manera en que operamos y que podrían tener algún impacto en el campo laboral; y, aunque faltan muchas respuestas, sí se sabe con certeza que el trabajo, en unos campos más que en otros, no volverá a ser el mismo después de la IA. Esto, sin embargo, quiero reiterar, no significa que habrá un desplazamiento de la inteligencia humana, sino que, igual como ha ocurrido con otros avances tecnológicos, ambas se complementarán. Por lo menos eso es lo que indican las implementaciones que se han realizado hasta el momento. Y es posible, incluso, anticipan los expertos, que los datos creados por humanos lleguen a tener un valor aun mayor.

Pero ¿cómo funciona exactamente la IA generativa y qué problemas se asocian a esta? La base de la IA generativa, como ChatGPT, son los denominados Modelos Lingüísticos (LLMs), definidos estos como “grandes franjas de información que se extraen de internet para entrenar a las máquinas…”. Pero la pregunta es ¿en qué se entrena a las máquinas y cómo obtienen estas las respuestas a cuestiones particulares? En el ámbito periodístico, donde confirmar la fuente es por poco una base fundamental del código deontológico de la disciplina, esto constituye un serio problema. En el campo académico, donde la fuente no solo debe ser confirmada sino también reconocida, también constituye un problema de magnitud considerable.

Desde esa perspectiva, puede concluirse que, en ambos casos, la preocupación por la transparencia es legítima y, desafortunadamente, hasta el momento no se tiene una respuesta clara. Además, los expertos han realizado experimentos mediante una técnica llamada Sparse-Quantizied Representation (SpQR), los cuales han expuesto la manera en que los LLMs se “erosionan y colapsan cuando se centran en otro contenido creado por IA”, llegando a describirlo como “una fotocopia de una foto impresa”.

Y mientras la discusión sobre estas cuestiones continuará en las próximas semanas, me ha maravillado de este curso del Centro Knight para el Periodismo en las Américas, el análisis de los grandes desafíos que presenta la IA para la humanidad debido a la forma en que esta opera. El siguiente es un recuento de esos desafíos:

– Sesgo en la propiedad intelectual debido, principalmente, a que las fuentes de las que se nutren ya tienen esos sesgos que pueden ser de género, étnicos o de otro tipo.
– Alto impacto ambiental, porque la IA consume grandísimas cantidades de energía, dejando una huella ecológica que se suma al que ya es un muy deteriorado medioambiente.
– Disparidad de riquezas. Se dice que: “dos tercios del trabajo realizado con IA se ha realizado en solo 15 ciudades de Estados Unidos”.

A lo anterior, sumemos también la potencial hegemonía que puede ejercerse al decidir dónde estarán disponibles estos sistemas y dónde no. Si vives en Latinoamérica, ya habrás escuchado, por ejemplo, que la herramienta de chatbot Claude no está disponible en la región. Sobre las diferentes operaciones que concretamente se pueden realizar con la IA, se distingue entre: Automatización de procesos, IA de bajo riesgo e IA de alto riesgo. Para aterrizar esto al campo periodístico, en el curso se ofrecieron los siguientes ejemplos:

– Process automation: enviar simultáneamente una historia al sitio web y a las Redes Sociales.
– Low-risk AI: crear historias a partir de fuentes de datos consistentes como reportes policiales y otros tipos de información estructurada.
– High-risk AI: escribir nuevas historias utilizando fuentes de datos estructurados y no estructurados.

Para ilustrar mejor la implementación de la IA en el campo periodístico, comparto la siguiente cita de una de las lecturas que formó parte del material bibliográfico obligatorio del curso, y que contiene un ejemplo de implementación de IA generativa realizado por Scott Brodbeck, fundador de Local News Now, en su sitio ARLnow:

Cita traducida del inglés:
“A principios de la semana pasada, la automatización del resumen de audio falló y no pasó las historias del día al modelo. Entonces, cuando se le pidió a la IA un resumen de ARLnow, “en ausencia de historias, simplemente inventó cosas. ¡Y sonó bastante convincente!”.

Y, precisamente en el campo periodístico, esto puede llevarnos a hacernos la pregunta sugerida por el candidato a doctorado del Instituto de Internet de Oxford, Felix Simon, y que trajo a la mesa de discusión la instructora Rinehart: ¿Qué tanto control podría tener la IA sobre las noticias? Pero mientras vamos descubriendo la respuesta, ella ofreció también varias sugerencias sobre cómo utilizar los chatbots y aprovecharlos de la mejor manera en el periodismo: estas herramientas como ChatGPT, dijo, “tienen dos componentes: el lenguaje y el conocimiento. Utilice sus capacidades lingüísticas. No le pidas que escriba una historia para ti, pero ingresa tu historia asegurándote que no es un tema sensible; y pídele que escriba titulares, la resuma y la convierta en un guion de transmisión. Nada debería publicarse directamente sin supervisión humana”.

El primer módulo concluyó con la sugerencia de que “debemos comprender la tecnología porque solo así podemos anticiparnos a determinar cómo estos sistemas pueden integrarse a los flujos de trabajo y evitar que sea la misma tecnología la que decida esto”. Además, solo con conocimiento sobre cómo esta opera podremos exigir marcos regulatorios transparentes y éticos en todos sus aspectos.

Durante el segundo módulo del curso, que contó con Sil Hamilton como instructor experto, quien es investigador sobre Inteligencia Artificial (IA) en Hacks/Hackers, “una red de periodistas que reflexiona y analiza el futuro de las noticias a través de charlas, hackathones y conferencias”, se abordó la evolución de los modelos de lenguaje, desde el propuesto por el matemático Claude Shannon en 1951, hasta los que utilizan actualmente las nuevas herramientas de Inteligencia Artificial.

El desarrollo de la Inteligencia Artificial como tecnología

En sentido general, según expuso Hamilton, “los modelos de lenguaje ofrecen una distribución de probabilidades de cierto vocabulario”, lo cual se consigue a través de la denominada neurona artificial que, en conjunto con otras, conforman redes de neuronas artificiales que pueden ser entrenadas para aprender a modelar secuencias de palabras, hasta llegar a desarrollar modelos de lenguaje. Este es el momento cuando se considera que estos sistemas “se han vuelto inteligentes” (Inteligencia Artificial).

Explicó el instructor, sin embargo, que a los científicos les tomó tanto tiempo descubrirlo porque “pensaron que era más fácil decirle a la máquina qué hablar, que entrenarla para que aprendiera a hablar”, en lo que se denominó Inteligencia Artificial Simbólica. Esto significa, concretamente, “que en lugar de decirle a la IA que aprendiera qué es un perro, con ejemplos, le dijeron que un perro es un animal. Pero para decirle qué es un animal, tuvieron que decirle qué es la vida, y luego que el perro es vida”. Siguiendo esta lógica, habría que describirle el mundo palabra por palabra a la IA, lo cual no es posible. Así que esa conclusión causó el denominado “invierno de la Inteligencia Artificial” en la década de 1980.

Dado que el ser humano tiene un espíritu de búsqueda constante, los investigadores de este campo consideraron que las redes neurales podrían aprender el lenguaje y predecir cada palabra siguiente en una secuencia lingüística, lo cual ocurrió en la década del 2000. Más recientemente, sobre todo en los últimos cinco años, los modelos de lenguaje fueron tan perfeccionados que se consideró que estos se habían vuelto “inteligentes”. A esto se sumó el desarrollo de los “diffusion models” (modelos de difusión), los cuales pueden producir un objeto complejo de una sola vez, volviéndose particularmente útiles para las imágenes, con la novedad de que este, además, podía trabajar adecuadamente con el primero, el modelo de lenguaje. Asimismo, se empezaron a desarrollar los “multimodal models” (modelos multimodal), que son modelos de lenguaje y modelos de difusión combinados.

Fundamentos sobre la generación de textos

Dado que la generación de textos se fundamenta en la predicción de palabras en una determinada secuencia lingüística, una de las cuestiones a responder es ¿Cuál es la probabilidad de que esa secuencia aparezca en la naturaleza? Así que los modelos de lenguaje están diseñados para predecir esa probabilidad, es decir, han sido entrenados para brindar la siguiente palabra matemáticamente más probable en dicha secuencia. Y ese proceso se repite una y otra vez. Se trata de proporcionarle “suficiente potencia computacional, suficientes neuronas artificiales y ejemplos de palabras extraídas de Internet”.

En definitiva, se trata de aplicar la lógica al conocimiento que se tiene del mundo para ofrecer palabras que, combinadas en una secuencia, parezcan coherentes. Por eso, de alguna manera, se convierte en un modelo mundial, y como la capacidad de predecir ha sido considerada “tan buena”, pareciera que estos se volvieron inteligentes, pero no es más que un sistema devolviéndole al mundo su conocimiento colectivo sobre las cosas, aunque sin decir de dónde las ha traído. Así trabaja, por ejemplo, el actualmente popular ChatGPT y otros sistemas de Inteligencia Artificial generativa.

Durante este módulo del curso, sin embargo, se destacó que “es importante recordar que aunque parezca que los sistemas de Inteligencia Artificial están desarrollando operaciones matemáticas o escribiendo ensayos, en realidad siempre están haciendo la misma operación”. Esto es, predecir la palabra que sigue en una secuencia lingüística o el número en una secuencia matemática. Pero ¿Qué pasa cuando el modelo no está seguro de qué palabras deberían venir después en una secuencia determinada? Ocurre lo que en informática se conoce como “hallucinations» (alucinaciones), que es cuando el sistema parece mentir, brindando información incorrecta o falsa.

En el marco de este módulo, se citó el ejemplo de un caso emblemático en el área jurídica, sobre un abogado que solicitó a ChatGPT los precedentes de un caso en el que trabajaba, pero cuando el juez revisó la lista que este le proporcionó determinó que todos habían sido inventados. El sistema, sin embargo, “no miente conscientemente… pero las alucinaciones serán difíciles de corregir y sin duda son un problema, porque el modelo nunca sabrá todo sobre el mundo, pero siempre hará todo lo posible para continuar con las secuencias dadas”, explica el instructor. En una referencia más clara, el instructor dijo: “es como un ser humano exagerando sus conocimientos en un área en que tiene menos confianza”.

En definitiva, las alucinaciones son las que hacen que los sistemas de Inteligencia Artificial generativa sean dudosos para asuntos en los que se requiere de alta precisión. En el centro de la discusión, por ejemplo, están las noticias, donde la exactitud y verificación de los hechos constituyen principios ineludibles. Atendiendo a cuestiones como estas, se ha desarrollado una tecnología denominada “Retrieval Augmented Generation (RAG), que en el ámbito periodístico equivale a tratar de que el modelo imite la actuación de un periodista, investigando antes de escribir un artículo. De esa manera, al modelo se le proporciona un conjunto de datos, que pueden ser los archivos verificados de la redacción de un medio sobre un tema determinado, y este revisará esos archivos y producirá un artículo en el que es menos probable que ocurran alucinaciones.

Las discusiones abiertas sobre la Inteligencia Artificial generativa

– Dado que los sistemas han sido entrenados con grandes cantidades de información preexistente ¿De quién es esa información que ha sido tomada para entrenarlos sin otorgar los créditos? Y otra pregunta, toda vez que un sistema de Inteligencia Artificial es alimentado con nueva información sobre la que se le pide que realice alguna acción, como por ejemplo transcribir, traducir o mejorar el texto ¿Cómo este reutiliza esa información para seguir entrenándose y generando más contenido para otros usuarios?

Abordaremos estas y otras cuestiones en la parte II de este trabajo que realizaremos en una siguiente entrega del blog.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Firma Editorial y Consultora de Comunicación especializada en la creación de contenidos editoriales corporativos y el desarrollo e implementación de planes de comunicación institucional.