May 2026
Intermediate
374 pages
6h 40m
Korean
이 작품은 AI를 사용하여 번역되었습니다. 여러분의 피드백과 의견을 환영합니다: translation-feedback@oreilly.com
대규모 언어 모델(LLM)은 최신 AI의 추론 엔진입니다. 오늘날 전 세계가 AI를 대규모로 배포하기 위해 경쟁하면서 모델 추론이 스택의 중심으로 이동하는 중대한 변곡점이 도래했습니다. 추론의 시대에 오신 것을 환영합니다.
그러나 적절한 최적화가 이루어지지 않으면 LLM은 비용이 많이 들고 서비스 속도가 느려질 수 있습니다. Hands-On LLM 제공 및 최적화는 대규모 LLM 배포 및 최적화의 복잡성에 대한 포괄적인 안내서입니다.
엔지니어링에 초점을 맞춘 이 실무 중심의 책에서 저자 Chi Wang과 Peiheng Hu는 견고하고 성능이 우수하며 비용 효율적인 AI 토큰 팩토리를 구축하기 위한 실용적인 예제, 코드, 전략을 결합하여 설명합니다. LLM 추론 인프라를 구축하든 이를 사용하는 애플리케이션을 구축하든, AI가 우리의 작업과 구축 방식을 변화시키는 가운데 LLM 서빙을 깊이 이해하면 보다 효과적이고 미래를 대비하는 엔지니어가 될 수 있습니다.
Read now
Unlock full access