진지하게.. AI 사업 접으시는건 어떨까요

#26
by Krakerberus - opened

지금 HCX는 그 어느 다른 모델과도 지는 상황입니다.

[HCX-005 실사용자 입니다]

  1. 접근성 부족
    OpenRouter에도 없고
    Together에도 없고
    접근성이 심하게 떨어집니다..

  2. 모델 자체는 최악

  • 파이썬 코드도 제대로 못 만들어
  • 할루시네이션도 심해
  • 검열도 심해
  1. HCX-005 기준으로 API 값이 성능 대비 비쌈
  • Claude 3.5 Haiku 수준
  • Mistral Small 보다도 성능 낮음

상용 모델만 봐도 이러는데 SEED라고 오죽하겠습니까.
겨우 오픈소스 모델 몇 개 이겼다고 만족하지 마시고 최소한 Sonnet 4는 이기셔야 됩니다.
국내만 바라보지 말고 글로벌하게 보세요.
이게 뭡니까..

가전제품 만드는 회사에 AI 모델로 지면 그게 테크 1위 기업인가요?

본인이 뭔데 사업 접으라 마라임? ㅋㅋ
그냥 방구석에서 AI 딸깍으로 실행해보는게 다면서 논리적인척
업계에 대한 존중도 없이 글 싸지르는 꼬라지가 아주 가관임

업계에 대한 존중도 없이

미안한데 존중을 해주고 싶어도 너무 가관인게 지금 HyperCLOVA THINK도 비추론 기준으로 GPT-4에게 성능 2배이상 밀려놓고는 보도자료 엄청 뿌려대는게 가관임 ㅋ
그러는 너는 뭐가 좋다고 클로바를 옹호함?
GPT의 '구형' 모델에 밀리는건 고사하고 메타의 라마 4 스카웃조차 GPT-4o 이기면서 출시하는데 클로바 혼자 GPT-4 이겨놓는게 정상임?

그럼 본인이 실행에 옮겨보세요^^
지금 각자 현업에서 몆개 없는 GPU 가지고 고군분투중인데 그딴식으로 말하고 싶어요?
본인부터 이겨놓고 지껄여보시죠

님 네이버 주주세요? 왜 이리 네이버를 감싸시는지..
한국 1위 테크 기업이라는게 Inception (미국 스타트업)에게 한참 밀리는게 지금 쉴드를 칠 상황인가요?
댓글 닫겠습니다.

Krakerberus changed discussion status to closed

ㅋㅋ GPT-4랑 비교하는것부터가 얼마나 이해가 떨어지는지에 대한 반증인데, 겨우 한다는 소리가 네이버 주주세요?
개발자분들이 쓰신 기술 보고서 논문은 읽어 보셨나요?
이 모델이 무엇을 중점으로 설계되었는지는 알고 하는 소리세요?
모든 일들이 처음부터 뿅 하고 결과물이 나오면 참 좋겠죠. 근데 기반을 다져야 할 것 아닙니까
열심히 하고 있다고 기술 초창기에도 오픈소스로 푸는거 참 어려운 결정인데 당신같은 사람들때문에 시장이 점점 폐쇄적으로 변하는거에요

그래놓고 한다는 소리가 뭘 이기네 지네, 사업을 접어라 말아라
표현의 자유라는게 진짜 아무런 책임 없이 오롯이 자유인 줄 아세요?

제발 글 남기기 전에 두번 세번 생각하고, 아니다 싶으면 인정을 할 줄 아는 자세를 가지세요.
인터넷에서 글 싸지르고 튀듯 현실에서도 똑같이 해보세요. 어떤 취급을 받는지
분해서 제 닉네임 검색해보지 마시구요 님때문에 새로 만든 계정이니까 ㅋㅋ

내가 너같은 애를 몇년이나 봐온줄 압니까?
아니 뭐 내가 사업 접으라한건 약간 과장이 맞는데
THINK의 비추론이 GPT-4에게 져놓고 보도자료 실~컷 뿌리는게 지금 말이나 되냐는데
너도 네이버 주주세요? 진짜 ㅋㅋ

이정도로 친절히 설명해줬는데 이해력 딸리고 논리 없는 사람 설득하려했던 제 잘못인듯;

아까부터 네이버를 이렇게 쉴드칠 이유가 없는게

나도 논문 꼼꼼히 읽어봤어요 근데 지금 하이퍼클로바가 홍보하는거부터 보세요

  1. 우리 비전 개쩔음! -> '그 이미지'만 학습. 네이버 데이터센터의 다른 각도 이미지 주면 전혀 인식못함.

  2. 우리 다른 모델 이김! -> 이긴건 맞는데.. 지금 버전업 한참 했을거요. HCX-005 기준으로 논문을 새로 써서 최신모델의 성능 보여줘야지. 다른건 최신모델 성능 가지고 홍보하는데 얘는 2년지난 모델 가지고 홍보하잖아요..

HCX-005의 벤치마크 기준으로, Gemma 3 27B 하위라고(사실 Mistral Small보다 처참하긴 한데) 해보죠. Gemma 3 27B it는 MMLU-pro에서 0.6371점을 기록했고. 이 위에는 Gemini 1.5 Pro가 있어요.

GPT-4를 이겼다는 논문이 나온 날은 24년 2월인건 아실거에요. 이 때를 고려하면 이 논문의 Gemini Pro는 1.0을 말하는데.. 지금 1.0? 아무도 안 써요. 벤치마크 대상이 되지 못하는 것부터 지금 기술 기준으로는 참고용으로만 가능한 "오래된" 논문이라고 할 수 있죠.

실사용자라고 말했고, API로 가능한 최신 모델인 HCX-005? 그거뿐만 아니고 HCX 라인 전부 할루시네이션 극심하고 문맥 이해를 못해요. 이는 005뿐만이 아닌 최신 모델인 THINK까지 포함이고. 오죽하면 프롬프트 위반 발생해서.. 내가 내 챗봇에 가능하면 많은 모델 지원하는데, HCX 뺀 이유가 그거에요. 비싸고, 멍청하고.

버전업 엄청해도 Gemini 1.5 Pro보다 못하면서 가격은 Claude 3.5 Haiku급으로 받아먹는게 웃음벨이죠.

인지도? 없어요. MMLU-pro 리더보드에 EXAONE 3.5 32B Instruct가 0.5891점이에요. 이는 Gemini 1.5 Flash (0.5912점)하고 비슷하고요. HCX? 없어요.

LG EXAONE은 라이선스만 해결이 되면 충분히 지켜볼 만한 수준인게, Qwen 2.5 32B를 이겼어요. 이것도 내가 EXAONE 3.5를 실사용을 했고, MMLU-Pro 점수가 약간 낮긴 하지만.. 위에 있는 Gemini 1.5 Flash도 충분히 좋았고, 3.5도 프롬프트 위반 없이 정상적으로 잘 되더라고요.

논문? 개발 철학? 기반? 무엇을 중점? 좋습니다. 근데 그것보다 훨씬 중요한건 "성능"이죠.

뭐 어떻게 쉴드치실거, 네이버 주주님?

Sign up or log in to comment