Capítulo 4. Estratégias avançadas de integração do LLM com o OpenAI
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
Agora que estás familiarizado com os princípios básicos dos LLMs e da API do OpenAI, está na altura de levar as tuas competências para o próximo nível. Este capítulo aborda estratégias poderosas que te permitirão aproveitar o verdadeiro potencial dos modelos do OpenAI. Desde a engenharia prompt e o ajuste fino de modelos para tarefas específicas até à implementação do design RAG nos teus dados proprietários, este capítulo vai dar-te todo o conhecimento necessário para dares um passo em frente na utilização de LLMs com o OpenAI. Também abordaremos algumas estratégias para ultrapassar as armadilhas específicas com que te depararás ao trabalhar na integração de LLMs nos teus projectos.
Engenharia prompt
Antes de mergulharmos na engenharia de prompt, vamos rever brevemente a função completion do modelo de chat, uma vez que esta secção a utilizará extensivamente. Para tornar o código mais compacto, define a função da seguinte forma:
client=OpenAI()defchat_completion(prompt,model="gpt-4",temperature=0,response_format=None):res=client.chat.completions.create(model=model,messages=[{"role":"user","content":prompt}],temperature=temperature,response_format=response_format)returnres.choices[0].message.content
Esta função recebe um prompt e apresenta o resultado da conclusão no terminal. ...