
最後の
print
関数で生成されたプロンプトを表示しています。この
print
関数による出力は、
次のようになります。
O U T
messages=[SystemMessage(content='あなたの名前はSAL 9000です。', additional_kwargs={},
response_metadata={}), HumanMessage(content='私の名前はヘイウッドです。', additional_
kwargs={}, response_metadata={}), AIMessage(content='こんにちは。', additional_
kwargs={}, response_metadata={}), HumanMessage(content='私の名前は分かりますか?',
additional_kwargs={}, response_metadata={})]
プロンプトテンプレートから生成されたプロンプトが、メッセージリストとして表示されて
います。プロンプトテンプレート中の変数が適切に置換されていることが確認できます。
作成したプロンプトは、次のように会話モデルに渡すことができます。
llm = ChatOpenAI()
response = llm.invoke(prompt)
print(response.content)
ここでは、プロンプトテンプレートから作成したプロンプトを
llm
に渡して、会話をシミュ
レーションしています。最後の
print
関数で、会話の内容を表示しています ...