CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·아이포니앙 ·주식한당 ·MaClien ·일본산당 ·방탄소년당 ·개발한당 ·자전거당 ·AI당 ·이륜차당 ·안드로메당 ·콘솔한당 ·소시당 ·키보드당 ·PC튜닝한당 ·테니스친당 ·육아당 ·갖고다닌당 ·소셜게임한당 ·노젓는당 ·골프당 ·위스키당 ·VR당 ·창업한당 ·나혼자산당 ·나스당 ·바다건너당 ·클다방 ·IoT당 ·어학당 ·여행을떠난당 ·디아블로당 ·라즈베리파이당 ·달린당 ·냐옹이당 ·레고당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·사과시계당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·전기자전거당 ·e북본당 ·이브한당 ·패셔니앙 ·물고기당 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·걸그룹당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·KARA당 ·꼬들한당 ·덕질한당 ·가죽당 ·리눅서당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·방송한당 ·찰칵찍당 ·그림그린당 ·소풍간당 ·심는당 ·패스오브엑자일당 ·품앱이당 ·리듬탄당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·스타한당 ·스팀한당 ·파도탄당 ·퐁당퐁당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·가상화폐당 ·시계찬당 ·WebOs당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

이제서야 집에서 돌릴 만한 인공지능 llm이 나왔네요. 26

43
2025-01-14 05:00:18 14.♡.52.212
호퍼김

이번에 마이크로소프트에서 오픈소스로 개발한 phi-4 를  맛보게 되었네요.


여지껏 로컬로 돌릴 수 있을 만한 한국어 llm이 마땅치 않아서


NC소프트에서 만든 모델 같은거로 테스트를 하거나 하는 수준이었는데,


이번에 진짜 제대로 된 모델이 나왔어요.


능력이  gpt4o 와 비교해도 손색없을 정도 입니다.


스크린샷 2025-01-14 044155.png


일단 팩트에 대한 부분은 뭐...

낮은 점수가 나왔지만

데이터 세트가 그만큼 충분하지 않기 때문에 넘어가기로 하죠.


하지만 다른 영역은 상당히 괜찮습니다. 굳이 온라인을 통하고 가입을 하고 ....


다 필요 없이 집에서 그냥 로컬로 돌려도 충분한 능력을 이끌어내고 있습니다.


일례로, 기존 라마 같은 버전에서는 한글이 거의 불가능 했죠.

스크린샷 2025-01-14 041439.png


llama3.2 버전은... 뭐 1기가 수준도 안되는 놈이라...


소개도 제대로 못하는 모델이었습니다.


이번에 제시된 phi4 는 9기가 정도 되는 녀석인데요.


스크린샷 2025-01-14 043131.png


보시다 시피 상당히 한국어를 잘 구사하고 있습니다.


요즘 저는 집에서 로컬로 돌릴 수 있는 비디오 생성형 ai에 관심이 많은데요.


영어로 프롬프트를 부탁한다는 명령을 내렸습니다.


스크린샷 2025-01-14 044917.png


내가 정확히 의도한 바는 아니지만 그래도 꽤나 정확한 이해를 바탕으로 프롬프트를 제시해 주고 있습니다.

그래서 저는 다시 맥락을 이해시키기 위해 다시 한번 요청을 해 봤지요.


스크린샷 2025-01-14 045101.png


이 정도의 출력을 보여주네요.

참고로 이 녀석은 PDF나 텍스트 파일을 업로드 하면

분석 할 수 있는 기능이 탑재되어 있습니다.


따라서 번역 및 기타 자료 정리용으로 꾀나 요긴하게 쓰일 수 있을 것 같고요.


응답속도 또한 상당히 빠릅니다.


RTX4080 super 기준 초당 50개의 문자열을 내뱉고 있습니다.


4070도 돌아간다고 합니다.


3060은 잘 모르겠지만, 12기가 메모리 짜리는 돌아갈 수 있을 듯 합니다.


=-=-=-=-=-=-=-=-=-=-=


요즘 시국이 어수선하여 모든 관심이 정치쪽으로 집중되어 있지만,


그렇다고 우리의 연구 및 취미 활동까지 마다할 순 없지요!


이번주에 꼭 내란범이 잡히길 바라며 글 올립니다.






호퍼김 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [26]
삭제 되었습니다.
deej
IP 58.♡.28.166
01-14 2025-01-14 05:09:17
·
ollama로 돌리셨나요?
호퍼김
IP 14.♡.52.212
01-14 2025-01-14 05:22:59
·
@deej님 LMStudio입니다.
유스튜
IP 121.♡.43.61
01-14 2025-01-14 05:09:47
·
드뎌 쓸만한게 나왔군요
NPU 장칙된 코파일럿+PC에서도 돌아갈지 궁금하네요
memories_
IP 118.♡.10.182
01-14 2025-01-14 05:13:19 / 수정일: 2025-01-14 05:18:45
·
lg에서 공개한 exaone도 쓸만하더군요.
3090기준으로 7.8b 모델이 100토큰 정도 나옵니다.
호퍼김
IP 14.♡.52.212
01-14 2025-01-14 05:41:37
·
@memories_님 예전에l lg에서 만들었다고 소식은 들었는데 이번에 한번 다운받아서 비교해 봐야 겠습니다. 정보 감사드립니다.
indigo62018
IP 163.♡.248.98
01-14 2025-01-14 05:17:30
·
정상적인 AI 관련 정보글 감사합니다... 클량에서 AI 관련 얘기 읽다보면 좀 어질 어질 해서...
열심개발자
IP 107.♡.244.222
01-14 2025-01-14 06:46:05
·
@이공일팔님 혹시 어질어질한 이유가 있나요?
세이드
IP 37.♡.18.165
01-14 2025-01-14 05:32:00
·
혹시 4070 슈퍼도 가능할까요?
호퍼김
IP 14.♡.52.212
01-14 2025-01-14 05:42:13 / 수정일: 2025-01-14 05:54:46
·
@세이드님 4070 슈퍼라면 12기가 혹은 16기가 이니 충분히 돌아갑니다. 물론 vram이 가장 중요합니다.
세이드
IP 37.♡.18.165
01-14 2025-01-14 06:38:22
·
@호퍼김님 잘 돌아가네요! 정말 정보 감사합니다 ㅠ
promiseme
IP 175.♡.29.248
01-14 2025-01-14 05:39:45
·
9기가 짜리를 받은 후 로컬에서 돌리면.. 9기가 안에 있는 데이터 외에 더이상 새로운 데이터들에 대해서는 학습을 할 수는 없는 건가요? 로
호퍼김
IP 14.♡.52.212
01-14 2025-01-14 05:49:45
·
@promiseme님 모델 학습에 관련된 부분은 집 컴퓨터로는 너무나도 한계가 뚜렷하다고 볼 수 있겠죠. a100을 만약 가지고 계신다면 미세조정에 보름 가까이 걸리지 않을까 싶습니다. 전기세도 감당이 안될테고... 전 그냥 만들어진 모델을 입맛에 맞게 쓰렵니다.
그냥그런이
IP 118.♡.74.211
01-14 2025-01-14 16:33:19
·
@promiseme님 대부분의 llm이 특정일 기준으로 학습된걸 사용합니다.
추가 훈련은 파인튜닝을 해야하는데 그건 일반인의 접근이 어렵구요.
열심개발자
IP 107.♡.244.222
01-14 2025-01-14 06:47:02
·
로컬 LLM들의 문제가 한국어였는데 개선됬나보네요 ㄷㄷ! 한번 써봐야겠습니다 ㅎㅎ
Uncensored
IP 211.♡.43.130
01-14 2025-01-14 07:28:41
·
사용해 보면 한국어는 phi-4보다 exaone3.5와 aya-expanse가 같은 용량으로 비교해도 훨씬 더 좋습니다.
다만 Phi-4는 상업적 사용이 가능하다는 라이센스가 장점이죠.
곰이모찌
IP 220.♡.230.194
01-14 2025-01-14 14:10:28
·
1080TI에서도 느리지만 돌아가는것 확인 했습니다.
aramix
IP 172.♡.52.228
01-14 2025-01-14 14:53:32
·
도움되는 글입니다. 고맙습니다. 공감+마음속추천+스크랩까지 해 놓고 갑니다.
독꾸리
IP 211.♡.196.1
01-14 2025-01-14 16:16:13
·
LLM 에 관심이 많은데 정보 감사합니다!
도장
IP 222.♡.114.172
01-14 2025-01-14 17:05:12
·
라마도 3.1 8B는 한국어 잘 합니다. 3.2 3B는 너무 경량이라...
박태호
IP 104.♡.68.42
01-14 2025-01-14 17:22:04 / 수정일: 2025-01-14 17:22:11
·
exaone 꼭 써보세요!
호퍼김
IP 14.♡.52.212
01-15 2025-01-15 05:39:24
·
@박태호님 써 봤는데 엄청 빠르네요. 감사합니다. ㅎㅎ
nekome
IP 211.♡.201.114
01-14 2025-01-14 17:33:56
·
좋은 정보 감사합니다
QWERTY
IP 115.♡.191.63
01-14 2025-01-14 17:50:23
·
혹시 이미지를 업로드하고 이미지 내의 텍스트를 추출해서 읽는 기능도 가능할까요?
업무상 꼭 있었으면 하는 기능인데 보안상 네트워크가 연결된 서비스에는 올릴 수가 없어서요 ㅠㅠ
호퍼김
IP 14.♡.52.212
01-15 2025-01-15 05:40:39 / 수정일: 2025-01-15 05:45:32
·
@QWERTY님 아직 사용해 보진 않았지만, 라마 버전의 이미지 처리 모델이 있긴 하네요. 11b 짜리라서 그래픽 카드 램이 그것보다 커야 할 것 같구요. 음. 일단 다운받아서 저도 테스트 해 보겠습니다.
리사수
IP 182.♡.122.100
01-14 2025-01-14 19:18:01
·
라데온은 안되나요?
호퍼김
IP 14.♡.52.212
01-15 2025-01-15 05:43:55
·
@리사수님 요즘 대부분의 인공지능이 cuda 즉, 엔비디아에서 제공되는 플랫폼을 사용해서 만든 것이라 라데온 쪽은 활용성이 확 낮아집니다. 라데온 쪽도 몇몇 모델에서 된다고는 들었는데 직접 해보지 않아서요. pytorch같은 것도 라데온 버전이 있긴 하니까. 일단 시도해 보시고 왠만하면 인공지능은 엔비디아로 넘어가심이 좋을 것 같습니다.
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.