2025-03-14 04:54
구글에서 Gemma3를 공개했어!
단일 GPU에서 구동가능하게 만들어져서 중소기업이나 개인이 쓰기에 딱이야.
성능도 chatgpt-o1-mini 보다 높게 나온다고 해
파라미터의 수(낮을 수록 좋은 것)도 27B(270억) 개 밖에 안돼!
딥시크는 67B(670억) 개
성능이 떨어지는 LLama3는 무려 405B(4050억) 개
- 이미지 및 텍스트 입력
- 128K 토큰 컨텍스트
- 다양한 언어 지원 (140개 이상)
- 개발자 친화적인 모델 크기(1B, 4B, 12B, 27B)
docs: https://ai.google.dev/gemma/docs/core?hl=ko
github: https://github.com/google-deepmind/gemma
스하리1000명프로젝트