2025년의 AI 분야가 이렇게 시작될 것이라고 예상한 사람은 아무도 없었습니다.

DeepSeek R1 는 정말 놀랍습니다!

최근 '신비한 동양의 힘' DeepSeek가 실리콘밸리를 '하드 컨트롤'하고 있습니다.

저는 R1에게 피타고라스의 정리를 자세히 설명해달라고 요청했습니다. 이 모든 것을 인공지능이 실수 없이 30초 이내에 해냈습니다. 한마디로 끝났습니다.

국내외 AI 업계에서는 일반 네티즌들이 오픈소스인 놀랍고 강력한 새로운 AI를 발견하고 학계 전문가들이 "반드시 따라잡아야 한다"고 외치고 있습니다. 해외 AI 기업들은 이미 큰 위협에 직면해 있다는 소문도 들려오고 있습니다.

이번 주에 출시된 DeepSeek R1만 봐도 알 수 있습니다. 지도 학습이 전혀 없는 순수 강화 학습 방식은 충격적입니다. 작년 12월 딥시크-v3 기반 개발부터 현재 OpenAI o1에 필적하는 사고 체인 기능까지, 시간 문제인 것 같습니다.

하지만 AI 커뮤니티는 기술 보고서를 읽고 실제 측정값을 비교하느라 분주하지만, 사람들은 여전히 R1에 대해 여러 벤치마크를 능가할 수 있다는 것 외에 정말 선두를 달릴 수 있을지에 대해 의구심을 품고 있습니다.

'물리 법칙'에 대한 자체 시뮬레이션을 구축할 수 있나요?

믿기지 않으세요? 큰 모델이 핀볼을 가지고 놀게 해줄까요?

최근 AI 커뮤니티의 일부 사람들은 문제를 해결하기 위해 다양한 AI 빅 모델(특히 추론 모델)을 테스트하는 테스트에 집착하고 있습니다. "노란색 공이 특정 도형 안에서 튀어 오르게 하는 Python 스크립트를 작성하세요. 도형을 천천히 회전시키면서 공이 도형 안에 머물도록 하세요."와 같은 문제입니다.

이 "회전하는 공" 벤치마크에서 일부 모델은 다른 모델보다 성능이 뛰어납니다. 국내 인공지능 연구소인 코어뷰의 CTO 이반 피오라반티에 따르면, 국내 인공지능 연구소인 DeepSeek는 오픈소스 대형 모델인 R1이 OpenAI의 ChatGPT Pro 프로그램의 일부로 월 $200인 OpenAI의 o1 프로 모델을 능가하는 성능을 가지고 있다고 합니다.

왼쪽에는 OpenAI o1이 있고 오른쪽에는 DeepSeek R1가 있습니다. 위에서 언급했듯이 여기에는 다음과 같은 프롬프트가 표시됩니다: "사각형 안에서 튀는 노란색 공에 대한 파이썬 스크립트를 작성하고, 충돌 감지를 올바르게 처리하고, 사각형이 천천히 회전하도록 하고, 파이썬으로 구현하고, 공이 사각형 안에 머물도록 하세요."입니다.

X의 다른 사용자에 따르면, Anthropic Claude 3.5 Sonnet과 Google의 Gemini 1.5 Pro 모델이 물리적 원리를 잘못 판단하여 공이 모양에서 벗어나는 현상이 발생했다고 합니다. 또한 일부 사용자는 Google의 최신 Gemini 2.0 플래시 씽킹 익스페리멘탈과 비교적 오래된 OpenAI GPT-4o가 한 번에 평가를 통과했다고 보고했습니다.

하지만 여기서 차이를 구분할 수 있는 방법이 있습니다:

이 트윗을 접한 네티즌들은 다음과 같이 말했습니다: o1의 능력은 원래 매우 좋았으나 OpenAI가 속도를 최적화한 후 $200/월 멤버십 버전에서도 약해졌습니다.

튀어 오르는 공을 시뮬레이션하는 것은 고전적인 프로그래밍 과제입니다. 정확한 시뮬레이션은 충돌 감지 알고리즘을 결합하여 두 물체(예: 공과 도형의 측면)가 충돌하는 시점을 식별해야 합니다. 잘못 작성된 알고리즘은 시뮬레이션의 성능에 영향을 미치거나 명백한 물리적 오류를 일으킬 수 있습니다.

AI 스타트업 Nous Research의 연구원 N8 Programs는 회전하는 육각형에서 튀어 오르는 공을 처음부터 작성하는 데 약 2시간이 걸렸다고 말합니다. "여러 좌표계를 추적해야 하고, 각 시스템에서 충돌이 어떻게 처리되는지 이해해야 하며, 코드를 처음부터 견고하게 설계해야 합니다."

공 튀기기와 도형 돌리기는 프로그래밍 기술을 테스트하기에 적합하지만, 대규모 모델에서는 아직 새로운 프로젝트이며 프롬프트의 작은 변화로도 다른 결과가 나올 수 있습니다. 따라서 대규모 AI 모델에 대한 벤치마크 테스트의 일부가 되려면 여전히 개선이 필요합니다.

어쨌든 이번 실기 테스트를 통해 대형 모델 간의 기능 차이를 파악할 수 있었습니다.

DeepSeek는 새로운 '실리콘 밸리의 신화'입니다.

DeepSeek가 태평양 전역에서 패닉을 일으키고 있습니다."

메타 직원들은 "메타 엔지니어들이 DeepSeek를 미친 듯이 분석하여 가능한 모든 것을 모방하려고 노력하고 있습니다."라는 글을 올렸습니다.

AI 기술 스타트업 Scale AI의 설립자 알렉산드르 왕(Alexandr Wang)도 DeepSeek의 AI 대형 모델의 성능이 미국 최고 모델과 거의 동등하다고 공개적으로 밝혔습니다.

그는 또한 지난 10년간 미국이 AI 경쟁에서 중국보다 앞서 있었지만, DeepSeek의 AI 대형 모델 출시로 "모든 것이 바뀔 수 있다"고 믿습니다.

X 블로거 @8teAPi는 DeepSeek가 '사이드 프로젝트'가 아니라 록히드 마틴의 이전 '스컹크 웍스'와 비슷하다고 생각합니다.

이른바 '스컹크 웍스'는 록히드마틴이 첨단 또는 파격적인 기술 연구 및 개발을 위해 설립한 비교적 독립적인 소규모의 극비 팀을 의미합니다. U-2 정찰기, SR-71 블랙버드부터 F-22 랩터, F-35 라이트닝 II 전투기까지 모두 이곳에서 탄생했습니다.

이후 이 용어는 점차 대기업이나 조직 내에 구성된 비교적 독립적이고 유연한 '작지만 훌륭한' 혁신 팀을 설명하는 일반적인 용어로 발전했습니다.

그는 두 가지 이유를 제시했습니다:

  • 한편으로 DeepSeek는 10,000개가 넘는 것으로 알려진 많은 수의 GPU를 보유하고 있으며, Scale AI의 CEO인 알렉산드르 왕은 50,000개에 이를 수 있다고 말하기도 했습니다.
  • 반면 DeepSeek는 중국 내 상위 3개 대학에서만 인재를 채용하기 때문에 알리바바, 텐센트와 같은 경쟁력을 갖추고 있습니다.

이 두 가지 사실만으로도 DeepSeek는 분명 상업적 성공을 거두었으며 이러한 리소스를 확보할 수 있을 만큼 잘 알려져 있다는 것을 알 수 있습니다.

DeepSeek의 개발 비용에 대해 블로거는 중국 기술 기업이 저렴한 전기 비용과 토지 사용 등 다양한 보조금을 받을 수 있다고 말했습니다.

따라서 DeepSeek의 비용 대부분은 핵심 사업 외의 계정이나 일종의 데이터 센터 건설 보조금 형태로 '배치'되었을 가능성이 매우 높습니다.

창업자를 제외하고는 모든 재정적 계약을 완전히 이해하는 사람은 없습니다. 일부 계약은 단순히 평판만으로 마무리되는 '구두 계약'일 수도 있습니다.

그럼에도 불구하고 몇 가지 분명한 것은 있습니다:

  • 이 모델은 OpenAI가 두 달 전에 출시한 버전과 비교할 수 있을 정도로 우수하며, 물론 OpenAI와 Anthropic이 아직 출시하지 않은 새로운 모델에 비해서는 부족할 수도 있습니다.
  • 현재 관점에서 볼 때 연구 방향은 여전히 미국 기업이 주도하고 있습니다. DeepSeek 모델은 o1 버전에 대한 "빠른 후속 조치"이지만 DeepSeek의 연구 개발 진행 속도가 매우 빨라 예상보다 빠르게 따라잡고 있습니다. 표절이나 속임수를 쓰는 것이 아니라 기껏해야 리버스 엔지니어링을 하고 있습니다.
  • DeepSeek는 미국에서 교육받은 박사급 인재에 의존하지 않고 자체적으로 인재를 양성하고 있어 인재 풀이 크게 확대되었습니다.
  • DeepSeek는 미국 기업에 비해 지적 재산 라이선스, 개인정보 보호, 보안, 정치 등의 측면에서 제약이 적고, 사람들이 원하지 않는 데이터의 부정 사용에 대한 우려도 적습니다. 소송도, 변호사도, 우려할 만한 사안도 줄어듭니다.

점점 더 많은 사람들이 2025년이 결정적인 해가 될 것이라고 믿고 있습니다. 그 동안 기업들은 이에 대비하고 있습니다. 예를 들어 Meta는 2025년까지 $60~650억을 투자하여 2GW 이상의 데이터 센터를 구축하고 있으며, 연말까지 130만 개 이상의 GPU를 보유할 예정입니다.

Meta는 2기가와트 데이터 센터를 뉴욕 맨해튼과 비교하기 위해 차트를 사용하기도 했습니다.

하지만 이제 DeepSeek는 더 낮은 비용과 더 적은 수의 GPU로 더 나은 성능을 발휘합니다. 어떻게 사람들이 불안해하지 않을 수 있을까요?

얀 르쿤: CTO이자 공동 창립자인 오픈 소스

단 4일 만에 DeepSeek-R1이 4가지 사실을 입증했다고 게시해 주신 Hyperbolic, Yuchen Jin입니다:

  • 오픈 소스 AI는 클로즈드 소스 AI보다 6개월 뒤처져 있습니다.
  • 오픈 소스 AI 경쟁에서 우위를 점하고 있는 중국
  • 대규모 언어 모델 강화 학습의 황금기에 접어들고 있습니다.
  • 증류 모델은 매우 강력하며, 휴대폰에서 고도로 지능적인 AI를 실행할 것입니다.

DeepSeek가 촉발한 연쇄 반응은 여전히 계속되고 있으며, OpenAI o3-mini가 무료로 제공되고, 커뮤니티에서 AGI/ASI에 대한 막연한 논의가 줄어들기를 희망하며, 메타가 패닉 상태에 빠졌다는 소문이 돌고 있습니다.

그는 누가 궁극적으로 승리할지 예측하기는 어렵지만 후발 주자의 이점이 갖는 힘을 잊지 말아야 한다고 믿습니다. 결국 트랜스포머를 발명한 것은 구글이고, 그 진정한 잠재력을 발휘한 것은 OpenAI라는 것을 우리 모두는 알고 있습니다.

또한 튜링상 수상자이자 메타의 수석 AI 과학자인 얀 르쿤도 자신의 견해를 밝혔습니다.

"DeepSeek의 성능을 보고 '중국이 AI 분야에서 미국을 추월하고 있다'고 생각하는 사람들은 잘못 알고 있는 것입니다. 오픈 소스 모델이 독점 모델을 추월하고 있다는 것이 올바른 이해입니다."

LeCun은 DeepSeek가 이번에 큰 성공을 거둘 수 있었던 이유는 공개 연구와 오픈 소스(메타의 PyTorch 및 Llama 등)의 혜택을 받았기 때문이라고 말했습니다. DeepSeek는 다른 사람들의 작업을 기반으로 새로운 아이디어를 떠올렸습니다. 그들의 작업은 공개적으로 공개되고 오픈 소스이기 때문에 누구나 혜택을 누릴 수 있습니다. 이것이 바로 공개 연구와 오픈 소스의 힘입니다.

네티즌들의 반성이 이어지고 있습니다. 새로운 기술의 발전에 대한 기대감과 함께 약간의 불안감도 느낄 수 있습니다. 결국, DeepSeekers의 등장은 실제 영향을 미칠 수 있습니다.

유사한 게시물

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다