CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·주식한당 ·아이포니앙 ·MaClien ·방탄소년당 ·일본산당 ·자전거당 ·개발한당 ·이륜차당 ·소시당 ·패스오브엑자일당 ·AI당 ·안드로메당 ·나스당 ·걸그룹당 ·바다건너당 ·사과시계당 ·클다방 ·물고기당 ·노키앙 ·전기자전거당 ·노젓는당 ·축구당 ·윈폰이당 ·IoT당 ·창업한당 ·가상화폐당 ·여행을떠난당 ·곰돌이당 ·키보드당 ·리눅서당 ·골프당 ·콘솔한당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·육아당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·디아블로당 ·개판이당 ·동숲한당 ·날아올랑 ·e북본당 ·갖고다닌당 ·이브한당 ·패셔니앙 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·KARA당 ·꼬들한당 ·덕질한당 ·어학당 ·가죽당 ·레고당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·적는당 ·방송한당 ·PC튜닝한당 ·찰칵찍당 ·그림그린당 ·소풍간당 ·심는당 ·라즈베리파이당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·퐁당퐁당 ·테니스친당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·VR당 ·시계찬당 ·WebOs당 ·소셜게임한당 ·위스키당 ·와인마신당 ·WOW당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

새로운소식

메타, 대형 언어 모델 Llama 3 공개 9

7
2024-04-19 12:03:49 수정일 : 2024-04-19 16:15:15 121.♡.247.123
DLBIA

스크린샷 2024-04-19 오전 11.40.17.png

메타가 새로운 대형 언어 모델인 Llama 3을 공개하고 이를 오픈소스화했습니다. 이는 Llama 2를 공개한 지 약 9개월 만의 일입니다.

이제 필요한 하드웨어를 갖췄다면 누구나 다음 링크를 통해 모델을 다운로드하고 실행해 볼 수 있습니다.

https://huggingface.co/collections/meta-llama/meta-llama-3-66214712577ca38149ebb2b6


이번에는 8B(80억) 매개변수와 70B(700억) 매개변수의 두 가지 모델을 공개했으며, 각각의 모델 훈련에는 24,576개의 GPU가 포함된 두 개의 GPU 클러스터가 사용되었습니다. 

8B 모델의 경우 일반적으로 약 200B 토큰의 데이터가 최적으로 알려져 있지만, 메타는 데이터의 양을 두 자릿수 배 늘려도 모델의 성능이 향상된다는 사실을 발견했으며 200B의 75배인 15T 토큰의 데이터까지 늘려도 성능이 로그 선형적으로 증가했습니다 , 최종적으로 8B, 70B 모델 둘 다 Llama 2를 훈련할 때보다 7배 많은 15T 토큰을 사용하여 훈련을 마쳤습니다.

컨텍스트 윈도우의 길이는 기존 4K에서 8K로 늘어났습니다.

ag.png

438998263_1368970367138244_7396600838045603809_n-3.png

Llama 3 8B 모델은 구글과 미스트랄의 오픈소스 7B 모델을 큰 차이로 앞질렀습니다. 

Llama 3 70B 모델은 비공개 모델인 구글의 Gemini Pro 1.5와 클로드 Sonnet을 주요 벤치마크에서 앞섰으며, Human evaluation 에서도 GPT-3.5와 클로드 Sonnet을 능가하는 성능을 보였습니다. 이는 오픈소스 모델로서는 매우 강력한 결과입니다.


439015366_1603174683862748_5008894608826037916_n.png

메타는 현재 4000억 개의 매개변수를 가진 Llama 3 400B 모델도 훈련 중임을 밝혔습니다.

출처 : https://ai.meta.com/blog/meta-llama-3/
DLBIA 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [9]
동차합격자
IP 123.♡.199.58
04-19 2024-04-19 12:17:11
·
이런거 돌리려면 pc사양은 어느정도 되어야 하나요?
DLBIA
IP 121.♡.247.123
04-19 2024-04-19 12:35:24 / 수정일: 2024-04-19 12:43:22
·
@동차합격자님 양자화되지 않은 모델을 큰 성능 저하 없이 돌리려면
일반적으로 8B 모델의 경우 14GB 이상의 VRAM이 탑재된 그래픽카드,
70B 모델의 경우 130GB 이상의 VRAM이 탑재된 그래픽카드, 혹은 그보다 작은 용량의 그래픽카드를 병렬 구성 하거나 통합 메모리 아키텍쳐 구조인 애플 실리콘 맥을 사용하는 경우도 있습니다.

양자화된 8bit, 4bit 모델의 경우 그보다 작은 VRAM으로도 구동이 가능합니다. 메타가 밝힌 만큼의 성능은 나오지 않겠지만요.
위대한 전진
IP 211.♡.65.243
04-20 2024-04-20 08:15:13
·
@DLBIA님 와 감사합니다 그렇다면 A100 80G 2대가 있으면 70B 모델 돌려볼 수가 있겠네요??
DLBIA
IP 104.♡.102.45
04-20 2024-04-20 09:31:45
·
@위대한 전진님 그렇습니다
토마시
IP 223.♡.23.147
04-19 2024-04-19 13:18:19
·
간만의 새소게 글 감사합니다.
매일한가한
IP 116.♡.241.254
04-19 2024-04-19 14:57:37
·
오픈진영은 미스트랄과 라마가 업치락 뒤치락 싸우는군요~
nariyada
IP 1.♡.209.117
04-19 2024-04-19 15:10:31
·
70B모델만 해도 gpt4와 비슷 혹은 이상이라는 평가지만
제미나이 경우를 봐도 관련서비스를 직접 써봐야 알 것 같습니다.
야하하하
IP 114.♡.67.166
04-20 2024-04-20 09:05:21
·
본문에서 의미있는 건 아직도 데이터양이랑 성능이랑 비례하는 군요. 다음에 나올 400B짜리가 기대되네요. 아직도 컴퓨팅 파워가 중요하군요.
늑대와곰돌이
IP 218.♡.214.178
04-20 2024-04-20 09:53:39
·
이제 그래픽카드 메모리는 16GB미만은 잡이군요.
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.