Capítulo 3. Mirar dentro de los grandes modelos lingüísticos
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Ahora que tenemos una idea de la tokenización y las incrustaciones, estamos listos para sumergirnos más profundamente en el modelo de lenguaje y ver cómo funciona. En este capítulo, veremos algunas de las principales intuiciones sobre el funcionamiento de los modelos de lenguaje Transformer. Nos centraremos en los modelos de generación de texto para tener una idea más profunda de los LLMs generativos en particular.
Veremos tanto los conceptos como algunos ejemplos de código que los demuestran. Empecemos cargando un modelo de lenguaje y preparándolo para la generación declarando una canalización. En tu primera lectura, siéntete libre de saltarte el código y centrarte en comprender los conceptos implicados. Luego, en una segunda lectura, el código te permitirá empezar a aplicar estos conceptos.
importtorchfromtransformersimportAutoModelForCausalLM,AutoTokenizer,pipeline# Load model and tokenizertokenizer=AutoTokenizer.from_pretrained("microsoft/Phi-3-mini-4k-instruct")model=AutoModelForCausalLM.from_pretrained("microsoft/Phi-3-mini-4k-instruct",device_map="cuda",torch_dtype="auto",trust_remote_code=True,)# Create a pipelinegenerator=pipeline("text-generation",model=model,tokenizer=tokenizer,return_full_text=False,max_new_tokens=50,do_sample=False,)