딥시크가 개발한 AI 모델 'V3'
그러나딥시크가 개발한 AI 모델 'V3'의 훈련 비용은 약 557만 6000달러(약 78억 8000만원)로, 빅테크 기업들이 수백억 달러를 투자하는 것에 비해 현저히 낮은 수준을 보였다.
딥시크는 미국 정부의 수출 규제를 피하기 위해 성능을 낮춘 H800 칩을 모델 훈련에 사용했음에도 'V3'는 엔비디아의 최신.
‘V3’ 등딥시크가 내놓은 AI 모델이 엔비디아의 최신 칩보다 성능이 떨어지고 저렴한 칩을 사용했는데도 빅테크의 최신 모델과 비슷하거나 오히려 능가하는 성능을 내고 있는 것이다.
딥시크의 ‘저렴한’ AI 모델 개발 방식이 확산한다면 엔비디아가 그동안 비싼 최신 AI 칩을 앞세워 올렸던.
딥시크는 지난해 말부터 초거대언어모델(LLM) AI ‘딥시크V3’와 AI 추론 모델 ‘딥시크R1’을 잇따라 공개하면서, 오픈AI나 메타의 AI 성능과 비슷한 수준이라고 밝혔다.
특히 엔비디아의 그래픽처리장치(GPU)인 H800을 활용했다고 공개했다.
H800은 미 정부의 수출 규제로 엔비디아가 중국 수출용으로.
딥시크가 지난달 말 공개한'딥시크-V3'개발비는 557만6000달러(약 78억8000만원)로 메타가 최신 AI 모델 '라마3′ 모델에 쓴 비용의 10분의 1 수준이다.
딥시크의 발표가 사실이라면 구글이나 메타 등 미국 빅테크업체 임원 1명의 연봉으로 시장 판도를 뒤흔들 AI 모델을 만든 셈이다.
이어 내놓은딥시크-V3과딥시크-R1은 이 회사의 이름을 세계에 알렸다.
딥시크는V3와 R1이 모두 미국의 주요 AI 모델보다 성능이 더 낫거나 비슷한 수준이라고 자신했다.
미국 수학경시대회인 AIME 2024 벤치마크 테스트에서 R1은 79.
8%를 얻어 오픈AI 'o1'의 79.
2%보다 앞섰다고딥시크는 밝혔다.
딥시크가 공개한 기술보고서에 따르면,딥시크의 거대언어모델(LLM)V3와 추론 특화 모델 'R1'이 수학·언어·추론 등에서 메타의 라마 3.
1, 오픈AI의 GPT-4o, 앤스로픽의 클로드 소넷 3.
5 등 미국 빅테크기업의 최신 AI 모델을 능가한 것으로 나타났다.
더욱이딥시크의 AI 모델 개발 비용이 미국 빅테크.
딥시크V3에는 5557만6000달러(한화 약 78억8000만원), R1 훈련에는 600만달러(약 86억원) 가량을 투자한 것으로 알려졌다.
미 빅테크 기업이 AI 언어모델에 쏟은 비용과 비교했을 때 10분의 1도 안 되는 금액이다.
이러한딥시크쇼크로 미 기술주는 약세를 면치 못했다.
이날 나스닥 지수는 3% 떨어졌고, AI.
앞서딥시크는 기술보고서에서 자사의 AI 모델V3를 훈련하는 데 엔비디아의 저렴한 칩인 'H800' 2천여 개를 사용했다고 밝혀 업계에 큰 충격을 줬습니다.
H800은 엔비디아가 미 정부의 수출 규제를 피하기 위해 만든 중국 수출용 제품으로, 성능을 낮춰 훨씬 더 저렴합니다.
그동안 미국의 AI 선두 기업들은.
28일 업계에 따르면딥시크는 지난해 말 대형언어모델(LLM) 'V3'를 공개한 데 이어 지난 20일(현지시간)에는 복잡한 추론 문제에 특화한 AI 모델 'R1'을 새롭게 선보였다.
딥시크의 AI 모델이 챗GPT 등과 비슷한 성능을 선보이는 것은 물론이고V3모델에 투입된 개발 비용이 557만6천달러(약 78억8천만원)에 그쳤다는.
이 회사는 지난해 12월 무료 오픈소스 대형언어모델(LLM)'딥시크-V3'를 출시했는데, 뛰어난 성능으로 시장에 파란을 일으키고 있다.
이 모델은 경쟁사이자 업계 선두주자인 오픈AI의 최신 모델보다도 성능이 뛰어난 것으로 알려져 있다.
지난 1월 20일에는 한단계 진일보한 모델 '딥시크-R1'도 선보였다.
등록된 댓글이 없습니다.