La lectura humana y la lectura artificial de la IA, aunque ambas procesan texto, difieren radicalmente en su naturaleza y capacidades. La lectura humana es un proceso cognitivo complejo que implica decodificación, comprensión, interpretación y conexión con experiencias previas, emociones y prejuicios, dando como resultado una experiencia subjetiva y matizada. Se apoya en la percepción visual, la conversión de letras en sonidos, el acceso a la memoria semántica y la construcción activa del significado. Por su parte, la lectura artificial de la IA se basa en el Procesamiento del Lenguaje Natural (PLN), representaciones vectoriales y redes neuronales, especialmente los Transformers, que le permiten analizar patrones, relaciones sintácticas y semánticas, e incluso identificar tono e intención, a una velocidad y escala inalcanzables para los humanos. Sin embargo, la IA carece de la comprensión consciente, la experiencia subjetiva y la capacidad de «sentir» el texto que caracterizan la lectura humana; la IA procesa información, mientras que el humano comprende e interpreta en un sentido profundo. La IA puede superar al humano en análisis a gran escala y detección de patrones, pero el humano aporta la riqueza de la experiencia vivida y el juicio crítico.
La lectura humana es un proceso fascinante y complejo que involucra la coordinación de varias áreas del cerebro y un conjunto de habilidades cognitivas. Los humanos tendemos a leer de una manera profundamente personal. Cada frase que pasa por nuestro cerebro se filtra a través de una red de experiencias, prejuicios y emociones. Al leer, buscamos comprender el significado, interpretar el contexto y conectar la información con nuestras propias experiencias. En primer lugar, nuestros ojos captan la forma de las letras y palabras en la página. Esta información visual viaja al lóbulo occipital del cerebro, donde se procesa y se reconocen los patrones de las letras. Luego, el cerebro convierte las letras en sonidos, llamados fonemas, y los combina para formar palabras. Este proceso de decodificación se basa en nuestro conocimiento del alfabeto y las reglas de pronunciación. Una vez decodificadas las palabras, accedemos a su significado almacenado en nuestra memoria y construimos el significado de las frases y oraciones, interpretando las relaciones entre las palabras y el contexto.
Un aspecto crucial es que no nos quedamos solo con el significado literal, sino que conectamos la información del texto con nuestros conocimientos, experiencias y emociones. Esto nos permite comprender el mensaje del autor, inferir información implícita y experimentar la lectura de forma personal. Esto da lugar a interpretaciones ricas y matizadas, especialmente en lo que respecta a la literatura, pero también significa que somos muy propensos a cometer errores. De hecho, frecuentemente nuestra capacidad para analizar objetivamente el texto se ve empañada por creencias personales, sesgos cognitivos y, a veces, incluso estados emocionales. La lectura conlleva subjetividad, un aspecto que nos hace humanos, pero que no deja de ser una desventaja en ámbitos que exigen precisión y neutralidad absoluta, como el análisis jurídico o la investigación científica. Además, mientras leemos, monitoreamos nuestra propia comprensión. Si algo nos confunde, podemos releer, buscar información o ajustar nuestra interpretación. La lectura humana va más allá de la simple decodificación. Implica fluidez para leer con rapidez y precisión, prosodia para dar entonación y ritmo al leer en voz alta, comprensión lectora para extraer el significado, y motivación e interés que influyen en nuestra atención. En definitiva, es una habilidad dinámica e interactiva que nos permite acceder al conocimiento, comunicarnos y experimentar el mundo de formas nuevas. La lectura, por lo tanto, es mucho más que un simple acto mecánico; es una interacción profunda entre el texto y la compleja red de experiencias y conocimientos que conforman nuestra mente.
La IA lee de una manera muy diferente a los humanos. No comprende el significado de las palabras, no tiene sentimientos y no tiene opiniones preconcebidas, pero puede procesar cada palabra, analizando sus relaciones y contextos de formas que van más allá de nuestras capacidades. Empieza por el reconocimiento de patrones utilizando técnicas de Procesamiento del Lenguaje Natural (PLN) para descomponer el texto en unidades más pequeñas, como palabras, frases y oraciones. Luego, analiza las relaciones entre estas unidades, identificando patrones y estructuras gramaticales. A través del aprendizaje automático, la IA puede aprender a reconocer patrones complejos en el texto, como el sentimiento, el tono y la intención del autor. A continuación, se establecen representaciones vectoriales, convirtiendo las palabras y frases en vectores numéricos, que capturan su significado y relación con otras palabras. Estos vectores se organizan en un espacio vectorial, donde la distancia entre los vectores representa la similitud semántica entre las palabras. Esto permite a la IA comprender las relaciones entre conceptos, incluso si no se mencionan explícitamente en el texto. Por último, se utilizan las redes neuronales para procesar la información textual. Las redes neuronales son un tipo de algoritmo de IA que imita la estructura del cerebro humano. Estos algoritmos pueden aprender a procesar información textual de forma similar a cómo lo hacemos nosotros, identificando patrones complejos y extrayendo significado del contexto. Las redes neuronales son especialmente útiles para tareas como la traducción automática, el resumen de texto y la generación de lenguaje natural. Las redes neuronales son fundamentales para el procesamiento de texto de la IA. Estas son un conjunto amplio de algoritmos inspirados en la estructura del cerebro humano, que pueden aprender a procesar información de forma similar a cómo lo hacemos nosotros. Dentro de este conjunto, existen diferentes arquitecturas y tipos de redes neuronales, cada una con sus propias características y aplicaciones. Los Transformers son una de estas arquitecturas, y se han vuelto muy populares en los últimos años debido a su capacidad para procesar el lenguaje de forma más eficiente y precisa. Para que nos quede más claro, imaginemos que las redes neuronales son como una familia. Dentro de esta familia, hay diferentes miembros con distintos roles y habilidades. Los Transformers serían uno de estos miembros, especializado en el procesamiento del lenguaje. Centrándonos en los Transformers, son cruciales para una lectura que contemple las diferentes dimensiones de un texto.
A diferencia de modelos anteriores que procesaban las palabras secuencialmente, los Transformers pueden analizar todas las palabras en una oración simultáneamente, lo que les permite capturar el contexto y las relaciones entre palabras de una manera mucho más completa. Para ello, logran una comprensión del contexto a largo plazo utilizando un mecanismo de «atención» que les permite ponderar la importancia de diferentes palabras en una oración al procesar cada una. Esto les ayuda a comprender las relaciones entre palabras distantes y a capturar el contexto a largo plazo, lo cual es esencial para interpretar el significado completo de un texto. Por ejemplo, en la oración «El niño que estaba jugando en el parque perdió su pelota», un Transformer puede relacionar «su» con «niño» a pesar de la distancia entre las palabras. Los Transformers pueden identificar relaciones sintácticas y semánticas complejas entre palabras, lo que les permite comprender la estructura y el significado del texto a un nivel más profundo. Esto les permite, por ejemplo, diferenciar entre «El perro mordió al hombre» y «El hombre mordió al perro», o comprender, en cierta medida, la ironía y el sarcasmo. Los Transformers pueden ser entrenados para analizar diferentes aspectos del texto, como el sentimiento, el tono, la intención del autor y la estructura narrativa. Esto permite una lectura más completa que va más allá de la simple comprensión del significado literal. Gracias a su capacidad para comprender el contexto y las relaciones entre palabras, los Transformers pueden generar texto que es gramaticalmente correcto, semánticamente coherente y estilísticamente apropiado. Esto tiene aplicaciones en la traducción automática, el resumen de texto y la creación de contenido. Los Transformers permiten a la IA procesar texto de una manera más sofisticada y multidimensional, capturando el contexto, las relaciones entre palabras y los matices del lenguaje de una manera que antes no era posible. Esto tiene implicaciones significativas para la comprensión del lenguaje natural y abre nuevas posibilidades en campos como la educación, la investigación y la comunicación. Por lo tanto, aunque la IA no experimenta la lectura de la misma manera que los humanos, su capacidad para procesar y analizar grandes cantidades de texto de forma rápida y precisa tiene un gran potencial en diversas áreas, como la investigación, la educación y la comunicación. Pero no se trata solo de velocidad o de análisis palabra por palabra; la IA identifica patrones y relaciones que incluso el lector humano más diligente podría pasar por alto. En el campo del análisis literario, una IA se puede entrenar para que estudie novelas, mapeando trayectorias emocionales, dinámicas de personajes y estructuras narrativas. Un modelo de IA de este tipo no solo identifica el arco emocional de una historia, sino que también puede ofrecer interpretaciones inesperadas que complementan el trabajo de los críticos literarios profesionales.
En el momento actual, nos encontramos con múltiples proyectos orientados al análisis de textos. Uno de los proyectos más conocidos es el proyecto «Neuronarrative» liderado por el profesor Mark Turner en la Case Western Reserve University. Este proyecto utiliza técnicas de IA y aprendizaje automático para analizar textos literarios, incluyendo novelas, y mapear las «trayectorias conceptuales» que subyacen a la narrativa. Si bien no se centra exclusivamente en las emociones, sí explora cómo los lectores construyen significado a partir de las historias y cómo la IA puede ayudar a revelar las estructuras profundas de la narrativa. Véase: The Livescu Initiative on Neuro, Narrative and AI https://livescu.ucla.edu/
Otro proyecto significativo es el enfoque de «literatura distante» de Franco Moretti (Distant Reading, Verso, 2013), que utiliza métodos computacionales para el análisis literario a gran escala. Su enfoque busca identificar patrones y tendencias en la literatura que no son evidentes a través de la lectura tradicional. Aunque no se centra específicamente en las emociones, sí explora las estructuras narrativas y las dinámicas de personajes a gran escala. En su libro, Franco Moretti propone un cambio de paradigma en los estudios literarios, alejándose de la lectura tradicional cercana («close reading») de textos individuales y abogando por un enfoque «distante» que utiliza métodos cuantitativos y computacionales para analizar grandes corpus de obras literarias. Moretti argumenta que este enfoque permite descubrir patrones, tendencias y relaciones a gran escala que son invisibles a través de la lectura tradicional. El libro es una colección de ensayos en los que Moretti explora diversas técnicas de análisis cuantitativo, como el análisis de redes, el mapeo geográfico de la literatura y el uso de árboles filogenéticos para estudiar la evolución de los géneros literarios. A través de estos métodos, Moretti investiga cuestiones como la difusión global de la novela, la evolución de los títulos de las obras y la relación entre forma y género. Distant Reading ha sido una obra fundamental para el desarrollo del campo de las humanidades digitales, generando tanto entusiasmo como controversia por su enfoque radicalmente diferente al estudio de la literatura. El libro no se centra en cómo la IA «lee», sino que ofrece una metodología para usar herramientas computacionales que permiten a los humanos analizar la literatura a gran escala. Es un ejemplo de cómo las técnicas de análisis de datos pueden aplicarse a las humanidades.
Aunque Moretti no usa IA en el sentido moderno (redes neuronales profundas, Transformers), su enfoque en el análisis de grandes cantidades de datos es un precursor de las técnicas de la IA. Para Moretti, la «lectura distante» busca patrones y relaciones que no son evidentes en la lectura individual, y esto es precisamente lo que hace la IA con el PLN y las representaciones vectoriales. Moretti aboga por métodos cuantitativos en los estudios literarios y, la IA, en su esencia, se basa en métodos cuantitativos y estadísticos. En fin, el trabajo de Moretti es central en el campo de las humanidades digitales, que a menudo se superpone y colabora con la IA aplicada a textos.
Además de estos proyectos, hay muchas otras investigaciones en curso que exploran el uso de la IA en el análisis literario, incluyendo:
Análisis de sentimientos: Se utilizan algoritmos de IA para identificar y clasificar las emociones expresadas en los textos literarios.
Generación de lenguaje natural: Se utilizan modelos de IA para generar resúmenes, análisis y críticas literarias.
Modelado de personajes: Se utilizan técnicas de IA para crear modelos computacionales de personajes literarios, que pueden utilizarse para analizar sus motivaciones, relaciones y desarrollo a lo largo de la historia.
Si bien todavía no existe un modelo de IA que pueda replicar completamente la experiencia y la intuición de un crítico literario profesional, estos proyectos demuestran el potencial de la IA para ofrecer nuevas perspectivas y herramientas para el análisis literario. La IA puede ayudar a identificar patrones, conexiones y estructuras que podrían pasar desapercibidos para el ojo humano, abriendo nuevas vías para la investigación y la interpretación literaria.
Dehaene, Stanislas. Reading in the Brain: The New Science of How We Read. Penguin Books, 2010.
Dehaene, un neurocientífico cognitivo, explora los mecanismos neuronales de la lectura, desde el reconocimiento visual de las letras hasta la comprensión del significado. Ofrece una visión detallada de cómo el cerebro procesa el lenguaje escrito. Es fundamental para entender el proceso de decodificación y el rol del lóbulo occipital.
Wolf, Maryanne. Proust and the Squid: The Story and Science of the Reading Brain. Harper Perennial, 2008.
Wolf, experta en desarrollo cognitivo, examina la historia de la lectura y su impacto en el cerebro humano. Combina la neurociencia con la historia cultural para explicar cómo la lectura ha transformado nuestra especie. Aborda la fluidez, la comprensión lectora y la evolución de la lectura.
Pinker, Steven. The Language Instinct: How the Mind Creates Language. William Morrow and Company, 1994.
Aunque no se centra exclusivamente en la lectura, Pinker, un destacado lingüista y psicólogo cognitivo, ofrece una visión general de cómo funciona el lenguaje en el cerebro. Proporciona un contexto crucial para entender la decodificación, la sintaxis y la semántica, elementos esenciales del proceso lector.
Rayner, Keith, et al. "Eye Movements in Reading and Information Processing: 20 Years of Research." Psychological Bulletin, vol. 129, no. 4, 2003, pp. 603-664.
Este artículo de revisión ( review ) resume dos décadas de investigación sobre los movimientos oculares durante la lectura. Es una fuente clave para comprender cómo los ojos captan la información visual y cómo este proceso se relaciona con la cognición y la comprensión.
Kahneman, Daniel. Thinking, Fast and Slow. Farrar, Straus and Giroux, 2011.
Kahneman, premio Nobel de Economía, explica los dos sistemas de pensamiento: el rápido e intuitivo (Sistema 1) y el lento y deliberativo (Sistema 2). Este libro es esencial para entender cómo los sesgos cognitivos y las heurísticas influyen en nuestra interpretación de la información, incluyendo la lectura, y cómo pueden llevarnos a errores.
Rosenblatt, Louise M. Literature as Exploration. 5th ed., The Modern Language Association of America, 1995.
Rosenblatt es la creadora de la "teoría transaccional" de la lectura. En esta obra, argumenta que el significado de un texto no reside únicamente en el texto mismo, sino que se crea en la "transacción" entre el lector y el texto. Es fundamental para comprender la subjetividad en la lectura y cómo las experiencias previas del lector influyen en la interpretación.
Adams, Marilyn Jager. Beginning to Read: Thinking and Learning about Print. MIT Press, 1994.
Este libro, un clásico en el campo, se centra en el aprendizaje de la lectura en niños, pero proporciona una excelente base sobre la fonología, la conciencia fonémica y la importancia de la decodificación en el desarrollo de la habilidad lectora.
Vaswani, Ashish, et al. "Attention is All You Need." Advances in Neural Information Processing Systems, vol. 30, 2017, pp. 5998-6008.
Este es el artículo seminal que introdujo el modelo Transformer. Describe la arquitectura del Transformer, el mecanismo de atención y su aplicación a tareas de traducción automática. Es fundamental para comprender la base de los modelos de lenguaje modernos.
Goodfellow, Ian, Yoshua Bengio, and Aaron Courville. Deep Learning. MIT Press, 2016.
Este libro es una referencia completa sobre el aprendizaje profundo (deep learning), incluyendo las redes neuronales, las redes neuronales recurrentes (RNN) y las redes neuronales convolucionales (CNN). Proporciona una base teórica sólida para comprender los fundamentos de la IA y el aprendizaje automático.
Jurafsky, Dan, and James H. Martin. Speech and Language Processing. 3rd ed. draft, Pearson, 2023. [En línea, disponible en: https://web.stanford.edu/~jurafsky/slp3/]
Este libro de texto es un recurso estándar en el campo del Procesamiento del Lenguaje Natural (PLN). Cubre una amplia gama de temas, desde la morfología y la sintaxis hasta la semántica y el análisis del discurso. Los capítulos sobre representaciones vectoriales (word embeddings), redes neuronales para PLN y modelos de secuencia a secuencia (incluyendo los Transformers) son especialmente relevantes.
Goldberg, Yoav. "Neural Network Methods for Natural Language Processing." Synthesis Lectures on Human Language Technologies, vol. 10, no. 1, 2017, pp. 1-309.
Este libro ofrece una visión general de los métodos de redes neuronales aplicados al PLN. Cubre temas como word embeddings, redes recurrentes, redes convolucionales y modelos basados en atención. Es una excelente introducción a las técnicas utilizadas en la lectura de la IA.
Devlin, Jacob, et al. "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019, pp. 4171-4186.
Este artículo presenta BERT (Bidirectional Encoder Representations from Transformers), un modelo de lenguaje basado en Transformers que ha revolucionado el campo del PLN. BERT se entrena en grandes cantidades de texto y puede ser ajustado para una variedad de tareas, como la clasificación de texto, la respuesta a preguntas y el reconocimiento de entidades nombradas.
Brown, Tom B., et al. "Language Models are Few-Shot Learners." Advances in Neural Information Processing Systems, vol. 33, 2020, pp. 1877-1901.
Este artículo presenta GPT-3, un modelo de lenguaje Transformer aún más grande y potente que BERT. GPT-3 demostró una capacidad impresionante para generar texto coherente y contextualmente relevante, así como para realizar tareas de PLN con muy pocos ejemplos de entrenamiento (few-shot learning).
Manning, Christopher D., et al. Introduction to Information Retrieval. Cambridge University Press, 2008.
Si bien no se centra exclusivamente en la IA, este libro es un texto fundamental en la recuperación de información, un campo estrechamente relacionado con el PLN. Cubre temas como la representación de documentos, la indexación, la evaluación de sistemas de recuperación y los modelos de relevancia. Los capítulos sobre modelos de espacio vectorial son relevantes para comprender las representaciones vectoriales de palabras y frases.
The Literary Lab en la Universidad de Stanford. Este laboratorio se dedica a la investigación en humanidades digitales y explora el uso de la IA en el análisis literario. https://litlab.stanford.edu/projects/members/
Digital Humanities Quarterly: Esta revista académica publica artículos sobre el uso de la tecnología en las humanidades, incluyendo el análisis literario. https://digitalhumanities.org/dhq/
Digital Scholarship in the Humanities: Publicada por la Alliance of Digital Humanities Organizations (ADHO), es una revista internacional revisada por pares que cubre todos los aspectos de las humanidades digitales. https://academic.oup.com/dsh
Etiquetas: Lectura, IA, Procesamiento del Lenguaje Natural, Transformers, Análisis Literario
José López Ponce, 14 de octubre, 2024