최근 메타에서 오픈소스로 공개한 대형 언어 모델인 라마3(Llama 3)가 큰 화제를 모으고 있습니다. 80억 개 매개변수를 가진 8B 모델과 700억 개 매개변수를 가진 70B 모델 두 가지가 공개되었고, 400B 모델도 현재 훈련 중이라고 합니다. Llama가 가진 성능과 다양한 활용 방안들에 대해 많은 사람들이 궁금해 하고 있는데요, 이 글에서는 다양한 방식으로 라마3를 사용해보고 체험할 수 있는 방법들을 소개해드리겠습니다. 허깅페이스, 메타 AI 서비스, 로컬 PC 등에서 라마3를 활용하는 방안을 알아보시기 바랍니다.
라마3 (Llama 3)란?
라마3는 메타에서 2024년 4월 17일 공개한 최신 대규모 언어 모델입니다. 기존 라마2 모델 대비 성능이 크게 향상되었으며, 다양한 자연어 처리 태스크에서 우수한 성능을 보여줍니다.
공개된 모델은 80억 개 매개변수를 가진 8B 모델과 700억 개 매개변수를 가진 70B 모델 두 가지입니다. 400B 모델도 훈련 중이라고 합니다.
라마3는 이전 라마2 대비 훨신 뛰어난 성능을 보여주고 있습니다. 8B 모델임에도 이전 700억 매개변수 모델보다 높은 성적을 기록했으며, 특히 인간 평가(human evaluation)에서 크게 점수가 오른 것으로 알려졌습니다.
라마3가 주목받는 또 다른 이유는 오픈소스로 공개되어 누구나 쉽게 사용해볼 수 있다는 점입니다. 메타는 AWS, GCP 등 주요 클라우드 업체들과 협력해 라마3를 바로 활용할 수 있도록 했습니다.
또한 라마 3는 공개와 동시에 AWS, GCP, Databricks 등 주요 클라우드 업체들과 협력해 바로 사용할 수 있도록 했습니다. 또한 검열 수준을 낮추고, 몇 달 내 더 긴 컨텍스트와 추가 모델 크기도 공개할 예정이라고 합니다. 라마3의 주요 특징은 다음과 같습니다:
- 8B, 70B 등 다양한 모델 크기 제공
- 기존 모델 대비 성능 대폭 향상
- 오픈소스로 공개되어 누구나 사용 가능
- 로컬 PC에서 실행 가능
라마3 (Llama 3) 사용법
라마3를 사용하는 방법은 크게 네 가지로 나눌 수 있습니다. 허깅페이스에서 라마3 사용하기, 메타 AI 서비스로 라마3 활용하기, Ollama로 내 PC에서 Llama3 실행하기, 그리고 클라우드 환경에서 실행 하기 입니다. 각 방법마다 장단점이 있고 특징이 있습니다. 그럼 각 방법에 대해 자세히 알아보겠습니다.