Quien no domine la lengua oficial en nuestra sociedad se enfrentará constantemente a problemas. No podrá comunicarse con la administración pública, informarse sobre la actualidad regional en la prensa local ni aprovechar al máximo nuestro sistema educativo. Las barreras lingüísticas provocan rápidamente experiencias negativas y dificultan considerablemente la participación social.
En la vida cotidiana nos encontramos a menudo con textos difíciles de entender, como contratos, normativas y comunicaciones administrativas. Muchas personas, especialmente aquellas cuya lengua materna no es la del texto, o las que tienen dificultades de aprendizaje, tienen problemas para comprender estos textos. Esto puede hacer que se sientan excluidas y se aíslen de la vida social. Al hacer que los textos sean más fáciles de entender —mediante el uso de palabras más sencillas, la presentación clara de información compleja y el uso de ayudas visuales—, podemos reducir la desventaja de estos grupos y prevenir su marginación. Por lo tanto, se puede considerar una tarea de toda la sociedad hacer que la información sea accesible para estos grupos y, de este modo, eliminar los obstáculos a su participación.
En este sentido, se han consolidado, entre otros, los conceptos de «lenguaje sencillo» y «lenguaje fácil». Existe una oferta cada vez mayor de textos simplificados y, en algunos casos, incluso un derecho legal a recibir información de fácil comprensión. Sin embargo, el elevado esfuerzo que supone su elaboración limita la cantidad disponible. En este sentido, los sistemas de IA generativa pueden ser de ayuda. En este artículo queremos exponer los aspectos positivos y negativos del uso de la IA en este ámbito y señalar las cuestiones que aún están por resolver.
El estado actual de la IA y sus riesgos
La inteligencia artificial generativa (IA) es capaz de crear contenidos de forma autónoma, como textos o imágenes. Desde el lanzamiento de ChatGPT, este tipo de algoritmos se han convertido en algo imprescindible en nuestra vida cotidiana. La IA se utiliza con total naturalidad para traducir, resumir o incluso como un chatbot abierto que, aparentemente, ofrece ayuda para cualquier problema. Sin embargo, este desarrollo también trae consigo nuevos problemas y cuestiones que surgen de la aplicación de la IA:
- ¿Qué influencia tiene la IA en la práctica científica?
- ¿Qué influencia tiene la inteligencia artificial en la enseñanza y la formación?
- ¿Qué repercusiones tiene el uso malintencionado de la IA, por ejemplo, en la generación de noticias falsas, en nuestra sociedad?
- …
Estos riesgos pueden extenderse a los sistemas de IA destinados a la simplificación del lenguaje. Sin embargo, es necesario tener en cuenta los aspectos metodológicos y sociales específicos que conlleva la simplificación del lenguaje.
¿A quién va dirigido?
Veamos primero a qué público se dirigen las simplificaciones lingüísticas. Se trata de un grupo muy heterogéneo, que abarca desde hablantes no nativos o personas sin conocimientos especializados hasta niños o personas con dificultades de aprendizaje. Algunos sectores de este público pueden ser especialmente «vulnerables». Con esto queremos decir que estas personas corren el riesgo de ser engañadas o explotadas a través de la información textual.
Con este término no pretendemos presentar al público objetivo de forma estereotipada como «fácil de engañar», sino señalar que hay personas que, por su naturaleza, deberían recibir una protección especial. Además, también pueden ser engañados grupos que suelen considerarse «no vulnerables». Un ejemplo son las personas sin conocimientos especializados que leen un texto técnico redactado de forma deliberadamente engañosa.
Además de la gran heterogeneidad del público objetivo, a la hora de evaluar los riesgos también queremos distinguir entre los distintos tipos de uso de la IA.
Simplificación basada en la IA
En primer lugar, la IA puede utilizarse para simplificar la información existente. En este caso, podemos dar por hecho que la calidad del contenido de la información original ya está garantizada. Esto tiene diversos efectos positivos para el grupo destinatario: por ejemplo, la mayor disponibilidad de información accesible aumenta la autonomía y la participación. Para las personas que reciben cuidados y apoyo en su vida cotidiana, se reduce el esfuerzo que supone leer y comprender textos de forma conjunta. La capacidad liberada puede destinarse a otras tareas de la atención.
Por otro lado, los profesionales que simplifican los textos se aseguran de que sus formulaciones no puedan malinterpretarse. Esto evita que las personas que dependen de los textos simplificados saquen conclusiones erróneas de ellos. La simplificación de textos complejos suele requerir modificaciones, como recortes, el uso de ejemplos, etc., para que los contenidos resulten más comprensibles. Sin una nueva revisión humana, estos cambios podrían dar lugar a malentendidos, incluso si el texto original se ha revisado cuidadosamente. Estos ajustes son necesarios para que los textos sean realmente más sencillos y comprensibles.
IA generativa para la creación de nuevos contenidos
Veamos ahora la generación de nuevos contenidos mediante la IA. La rápida difusión de ChatGPT demuestra que a mucha gente le gusta utilizar la IA generativa y, al parecer, se beneficia de ella. También las personas que dependen de textos simplificados tienen derecho a poder beneficiarse de los aspectos positivos de esta tecnología. Sin embargo, esto podría acarrear consecuencias negativas para los grupos vulnerables.
En el uso de los modelos de lenguaje grande (LLM), especialmente en sistemas de chat abiertos como ChatGPT, se conocen problemas relacionados con datos aparentemente inventados (alucinaciones), representaciones erróneas o mecanismos de seguridad fáciles de eludir. Por lo tanto, estos problemas también pueden aplicarse a las soluciones que aquí se analizan.
Para entrenar los modelos de IA se utilizan datos disponibles en línea. Estos pueden contener, en algunos casos, tergiversaciones deliberadas o representaciones sesgadas. Estas pueden incorporarse de forma latente a los modelos durante el entrenamiento. ¿Qué repercusiones puede tener esto en la IA que se comunica específicamente con un grupo destinatario vulnerable? ¿En qué medida se pueden limitar las consecuencias negativas mediante medidas de seguridad? Se debe evitar que un modelo de IA exponga a un grupo destinatario vulnerable a este tipo de información.
Nuestra recomendación
De ello se derivan las siguientes recomendaciones para futuros desarrollos. Nos limitamos a los aspectos específicos de la simplificación del lenguaje. Por un lado, necesitamos un mecanismo que permita adaptar el tipo de simplificación —es decir, el grado de simplificación lingüística y de reducción del contenido— a cada usuario. Debemos evitar que la IA trate a los usuarios de forma paternalista mediante una reducción excesiva de la complejidad. Necesitamos una nueva metodología que permita evaluar la comprensibilidad en este contexto específico.
En ámbitos especialmente delicados, como la atención y el apoyo, los modelos de IA deberían utilizarse como complemento, dados los riesgos existentes. No deben sustituir a la interacción humana.
Si se pretende que la IA generativa se comunique de forma simplificada sin control humano, deberíamos limitar el ámbito de aplicación de la IA de tal manera que sea técnicamente posible verificar las respuestas. En la actualidad, no creemos que se puedan tener en cuenta los riesgos descritos en los sistemas abiertos. Por ello, recomendamos restringir el alcance para poder integrar mecanismos de seguridad.
Para terminar, nos gustaría señalar la cuestión pendiente de cómo debe regularse el acceso a este tipo de sistemas. Debido a los riesgos descritos, se podría optar por mantener los sistemas cerrados. Esto significa que solo los usuarios verificados podrían acceder al sistema. Por el contrario, los sistemas de acceso libre permiten un uso sencillo y anónimo y tienen un mayor potencial para aumentar la participación en la práctica.
Autores
Lars Klöser, máster en Ciencias