Redes neuronales recurrentes y Transformers para modelos cognitivos del lenguaje

 

Autor: Guillermo de Jorge Botana


Los grandes modelos del lenguaje han inundado muchos ámbitos en los que nos desenvolvemos. Raro es el que no haya puesto a prueba los modelos GPT 3.5/4, o no haya requerido la ayuda de ChatGPT. Pero ¿cómo son capaces de dar las respuestas que dan? Por debajo de todo se encuentran los algoritmos de aprendizaje profundo, en especial las redes neuronales artificiales de última generación. Este libro se dedica a las más destacadas en la construcción de estos modelos: las redes neuronales recurrentes (RNN-LSTM) y los transformers. Existen muchos vídeos y páginas web dedicadas a programar o usar, con pocas líneas de código, un modelo basado en RNN-LSTM o en bloques transformer. Sin embargo, aunque se proponen muestras codificadas, ambas arquitecturas son explicadas de una manera agnóstica a código. Se pretende que los que están aprendiendo a usarlas en código de alto nivel, también sepan entenderlas de manera exhaustiva y no ser el mero ejecutor de unas líneas. Esto ayudará a diseñar mejores entornos y, no menos importante, a explicarlos y comunicarlos. Además, para poder homologar comportamiento artificial con comportamiento humano, el tratamiento de la argumentación del libro está orientado hacia la ciencia cognitiva.


Ficha técnica:

Año: 2024

Páginas: 318 pp.

Formato: 13,5 x 21 cm

ISBN: 978-84-669-3836-5

ISBN (PDF): 978-84-669-3837-2

Materia: Inteligencia artificial

Colección: Divulgación y Transferencia

Cómo citar: Jorge Botana, Guillermo de. 2024. Redes neuronales recurrentes y Transformers para modelos cognitivos del lenguaje. Madrid: Ediciones Complutense.