ChatGPT: frente a los artificios de la IA, cómo la educación en medios puede ayudar a los estudiantes

¿Quién nunca ha oído hablar de ChatGPT, esta inteligencia artificial generativa, capaz de responder con textos complejos a las consultas lanzadas por los internautas? El lanzamiento en diciembre de 2022 de este software diseñado por la empresa OpenAI suscitó multitud de artículos, entre visiones de catástrofe y utopía, produciendo pánico mediático, como ilustra el carta abierta de marzo de 2023 pidiendo una moratoria en el desarrollo de este tipo de sistemas, firmado por mil investigadores.
Como lo muestra un estudio de la Columbia Journalism Review, el pánico no empezó en diciembre de 2022 con el evento lanzado por OpenAI sino en febrero de 2023 con los anuncios de Microsoft y Google, acudiendo cada uno desde su chatbot integrado a su buscador (Bing Chat y Bard, respectivamente). La cobertura de los medios desdibuja la información, centrándose más en el reemplazo potencial de los humanos que en la concentración real de la propiedad de la IA en manos de unas pocas empresas.
Como cualquier pánico mediático (los más recientes son los de la Virtuale realidad y el metaverso), su finalidad y efecto es crear un debate público que permita a actores distintos a los mediáticos y digitales aprovecharlo. Para la alfabetización mediática e informacional (MIL), hay mucho en juego en términos de interacciones sociales y escolares, incluso si aún es demasiado pronto para medir las consecuencias en la enseñanza de estos modelos de lenguaje.generar automáticamente textos e imágenes y ponerlos a disposición del público público en general.
En paralelo con acciones de política regulatoria, el EMI permite a los ciudadanos protegerse de los riesgos asociados al uso de estas herramientas, desarrollando su pensamiento crítico y adoptando estrategias de uso adecuadas y responsables. Algo-alfabetización, este subcampo de MIL que considera qué le hacen los datos a los medios, hace posible aplicar estas claves de lectura a la IA. Aquí hay cuatro direcciones en las que MIL puede ayudarnos a navegar estas cadenas de interacciones algorítmicas, desde sus producciones hasta sus audiencias.
Tener en cuenta la geopolítica de la IA
Son las empresas que controlan los motores de búsqueda y, por lo tanto, el acceso a la información, Google y Microsoft, las que tienen más que ganar con el desarrollo de la IA generativa. Están organizados, al estilo americano, como un duopolio, con un (falso) retador, Open AI LP. En realidad, es el brazo comercial del laboratorio OpenAI inicialmente sin fines de lucro (financiado en gran parte por Microsoft).
Otra historia puede ser contada, especialmente por los medios de comunicación, la de la increíble concentración de poder y dinero por parte de un número muy pequeño de empresas en el Silicon Valley. Se otorgan el monopolio del acceso a la información y de todas las producciones que de ella se deriven. Alimentan la competencia frontal entre Estados Unidos y China sobre el tema. De hecho, la estrategia de Google y Microsoft está destinada a sacar el tapete bajo los pies del gobierno chino, que no oculta sus ambiciones para el desarrollo de la IA.
La opción de una pausa o una moratoria es una quimera frente a lo que equivale a una carrera armamentista. Los propios inventores, como aprendices de brujo arrepentidos, incluido Sam Altman, gerente general de OpenAI, propusieron en mayo de 2023 “Gobierno de la IA”. Pero, ¿no sería con la esperanza de no sufrir todo el peso de la regulación gubernamental que los eludiría y frenaría sus intenciones comerciales? La Unión Europea se ha anticipado al preparar un Regulación de IA regular los usos de esta nueva evolución digital.
Cuestionar la calidad de los textos e imágenes proporcionados
No todo lo que es plausible es necesariamente significativo. La IA que maneja el software ChatGPT hace sugerencias basadas en consultas y aparecen rápidamente… ¡en un lenguaje bastante elegante y bien cuidado! Pero esto puede generar errores, como se dio cuenta, para su disgusto, de un abogado de Nueva York que había montado una archivo lleno de opiniones legales falsas y citaciones legales falsas.
Así que tenga cuidado con la pseudociencia generada por IA. Los contenidos ofrecidos pueden tener sesgos por provenir de la explotación de enormes bases de datos. Estos incluyen conjuntos de datos con fuentes de todo tipo... ¡incluidas las redes sociales! La última versión gratuita de ChatGPT se basa en datos que se detienen a principios de 2022, por lo que no está realmente actualizado sobre los eventos actuales.
Muchas de estas bases de datos provienen de países de habla inglesa, con los sesgos algorítmicos asociados. De hecho, ChatGPT corre el riesgo de crear información errónea y prestarse a usos maliciosos o amplificar las creencias de quienes lo usan.
Por tanto, debe utilizarse como cualquier otro instrumento, como un diccionario con el que investigar, elaborar un borrador... sin confiarle secretos y datos personales. Pedirle que produzca sus fuentes es un buen consejo, pero incluso eso no garantiza la ausencia de filtros, el chatbot tiende a producir una lista de fuentes que parecen citas, pero no todas son referencias reales.
Además, no debemos olvidar la Los derechos de autor que pronto entrará en acción.
Cuidado con los imaginarios en torno a la IA
El terminointeligencia artificial no es apropiado para lo que viene bajo un procesamiento de datos preentrenado (el significado del acrónimo GPT para transformador preentrenado generativo).
Este antropomorfismo, que nos lleva a atribuir el pensamiento, la creatividad y los sentimientos a un agente no humano, es negativo por partida doble. Nos recuerda todos los mitos angustiosos que advierten de la inviabilidad de cualquier porosidad entre lo vivo y lo no vivo, desde el Golem hasta Frankenstein, con temores de extinción de la raza humana. Sirve para la comprensión serena de la utilidad real de estos transformadores de gran escala. La ciencia ficción no ayuda a entender la ciencia. Y por tanto formular referentes éticos, económicos y políticos.
Estos imaginarios, por muy activos que sean, deben ser desmitificados. La llamada "caja negra" de la IA generativa es bastante simple en principio. Los modelos de lenguaje a gran escala son algoritmos entrenados para reproducir los códigos del lenguaje escrito (o visual). Rastrean miles de textos en Internet y convierten una entrada (una secuencia de letras, por ejemplo) en una salida (su predicción para la siguiente letra).
Lo que genera el algoritmo, a muy alta velocidad, es una serie de probabilidades, que puedes comprobar volviendo a hacer la misma consulta y viendo que tus resultados no son los mismos. Allí no hay magia, tampoco sensibilidad, aunque el usuario tenga la sensación de tener una “conversación”, otra palabra del vocabulario humano.
Y puede ser divertido, ya que la IA BabyGPT creada por el New York Times, trabajando sobre pequeños corpus cerrados, para mostrar cómo escribe como jane austen, William Shakespeare o JK Rowling. Incluso ChatGPT no se deja engañar: cuando se le pregunta cómo se siente, responde, sin rodeos, que no está programado para eso.
Varíe las herramientas
Por lo tanto, las audiencias de IA, especialmente en la escuela, deben desarrollar conocimientos y habilidades en torno a los riesgos y oportunidades de este tipo de robot conversacional. Además de comprender los mecanismos de procesamiento automático de información y desinformación, otras precauciones se prestan a la educación:
-
tenga cuidado con el monopolio de la consulta en línea, como objetivo de Bing Chat y Google Bard, compitiendo entre sí, por lo tanto, utilizando regularmente varios motores de búsqueda;
-
requerir etiquetas, códigos de colores y otros marcadores para indicar que un documento ha sido producido por una IA o con su ayuda también es sentido común y algunos medios ya lo han anticipado;
-
solicite que los productores realicen ingeniería inversa para producir IA que monitoreen la IA. que ya es el caso de GPZero ;
-
iniciar procedimientos judiciales, caso de ChatGPT "alucinación"- - ¡Otro término antropomorfizado para marcar un error en el sistema!
-
Y recuerda que cuanto más uses ChatGPT, en su versión gratuita y de pago, más lo ayudas a mejorar.
En el ámbito educativo, las soluciones de marketing de EdTech pregonan los beneficios de la IA para personalizar el aprendizaje, facilitar el análisis de datos, aumentar la eficiencia administrativa, etc. Pero estas métricas y estadísticas de ninguna manera pueden reemplazar la validación de las habilidades adquiridas y las producciones de los jóvenes.
Por muy inteligente que afirme ser, la IA no puede sustituir la necesidad de los estudiantes de desarrollar su pensamiento crítico y su propia creatividad, de formarse e informarse dominando sus fuentes y recursos. A medida que EdTech, particularmente en los Estados Unidos, se apresura a introducir la IA en las aulas, desde la escuela primaria hasta la educación superior, la vigilancia de los docentes y los responsables de la toma de decisiones sigue siendo esencial para preservar las misiones centrales de las escuelas y las universidades. La inteligencia colectiva puede así tomar el lugar de la inteligencia artificial.
Divina Frau-Meigs, Profesor de Ciencias de la Información y la Comunicación, Autores históricos La conversación Francia
Este artículo ha sido publicado de nuevo. La conversación bajo licencia Creative Commons. Lee elarticulo original.
Crédito de la imagen: Shutterstock / Cazador de píxeles