본문 바로가기

chatgpt 기술탐구

chatGPT의 아버지 샘 알트만 대한민국 방문 예정

반응형



출처 https://m.khan.co.kr/economy/economy-general/article/202304021808001?utm_source=facebook&utm_medium=social&utm_campaign=khan#c2b

‘챗GPT의 아버지’ 샘 알트만 5~6월 중 한국 온다

대화형 인공지능(AI) 챗봇 챗GPT를 개발한 미국 오픈AI의 샘 알트만 최고경영자(CEO)가 한국에...

m.khan.co.kr


요즘은 챗gpt활용한 이야기가 넷상에 엄청 도배되는 중인데...

실제 업무효율에는 큰 혁신을 불러와줄 모양입니다

몇몇 사람들은 반성문이나 진술서 작성에서까지 챗gpt를 이용하고 그것을 인용해서 논문작성까지하는 등 요즘 많은 관심을 이끌고 있는 분야로 해석되고 있지요

일론머스크도 그에따라 오픈Ai에 대해서 엄청난 관심을 가지고 있으며, 대량으로 GPU를 구매해서 연구개발에 몰두하는 중입니다

앞으로 대부분의 기업들이 이 분야에 빠르게 도전할것으로 보여지며, 어느정도 기술있는 기업들은 지속적인 투자와 인수합병에 큰 영향을 받을것으로 보여집니다


ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ

일부 학교에서 금지한 숙제 작성용 챗봇인 ChatGPT의 인공 지능이 Chegg Inc(CHGG.N)라는 회사를 통해 더 많은 학생들에게 제공됩니다.
미국의 교육용 소프트웨어 제조업체인 댄 로젠스와이그(Dan Rosensweig) CEO는 지난 주 로이터 통신과의 인터뷰에서 퀴즈 답변 자료를 GPT-4로 알려진 챗봇의 AI 모델과 결합해 학생 맞춤형 학습 도우미인 CheggMate를 만들었다고 말했습니다.
그는 월요일 CheggMate 발표를 앞두고 “주머니 속의 튜터”라고 말했다.



2023년 3월 31일에 찍은 이 그림에는 ChatGPT 로고가 보입니다. REUTERS/Dado Ruvic/Illustration

4월 17일 (로이터) - 일부 학교에서 금지한 숙제 작성용 챗봇인 ChatGPT의 인공 지능이 Chegg Inc(CHGG.N)라는 회사를 통해 더 많은 학생들에게 제공됩니다.
미국의 교육용 소프트웨어 제조업체인 댄 로젠스와이그(Dan Rosensweig) CEO는 지난 주 로이터 통신과의 인터뷰에서 퀴즈 답변 자료를 GPT-4로 알려진 챗봇의 AI 모델과 결합해 학생 맞춤형 학습 도우미인 CheggMate를 만들었다고 말했습니다.
그는 월요일 CheggMate 발표를 앞두고 “주머니 속의 튜터”라고 말했다.


이 소프트웨어는 학생들이 수강하고 있는 수업과 놓친 시험 문제에 대한 데이터를 처리하고, 연습 시험을 개인화하고, ChatGPT와 같은 일반 프로그램이 할 수 없는 방식으로 학습을 안내함으로써 학생들에게 적응할 것이라고 Rosensweig는 말했습니다.  체그는 다음 달에 처음에는 무료로 제공될 것이라고 말했다.
이 릴리스는 교육자들이 AI의 결과와 씨름하고 있는 것처럼 학생들이 AI로 수행하는 작업을 넓힐 준비가 되어 있습니다.  작년에 ChatGPT가 출시되면서 학생들은 챗봇에 의해 일관되게 작성된 과제를 제출하게 되었고, 일부는 교과 과정을 생략하고 교수진이 자신의 무결성을 조사하도록 했습니다.
로스앤젤레스 통합 교육구는 더 많은 분석이 있을 때까지 장치 및 네트워크에서 ChatGPT에 대한 액세스를 차단했다고 로이터 통신에 밝혔으며, 프랑스의 Sciences Po와 같은 기관은 출처 표절을 우려해 ChatGPT를 금지했습니다.  또 다른 교사들은 비판과 같은 목적으로 공개된 경우 ChatGPT의 사용을 권장했습니다.

Rosensweig는 Chegg가 학교에 도전해 온 에세이 초안이 아니라 수학과 과학에 초점을 맞추고 있다고 말했습니다.  또한 교사가 현재 시험의 질문에 대한 답변 검토를 제한할 수 있습니다.
정확도는 사실을 파악하지 않고 다음에 말할 내용을 예측하는 AI 모델의 문제로 남아 있습니다.  Rosensweig는 Chegg가 정확성을 보장하기 위해 답변을 구조화하고 확인했다고 말했습니다.
AI로 인해 Chegg가 콘텐츠에 기여하는 150,000명의 전문가 풀을 축소하도록 유도할 것인지에 대한 질문에 그는 회사가 이미 인간과 기술의 균형을 유지하고 있다고 말했습니다.  그는 CheggMate가 콘텐츠 비용을 줄이고 시간이 지남에 따라 수익성을 높일 것이라고 말했습니다.
최근 몇 달 동안 분석가들은 학생들이 Startup OpenAI에서 만든 ChatGPT 소프트웨어를 대부분 무료로 채택함에 따라 Chegg가 800만 명의 구독자 기반을 성장시킬 수 있는지에 대해 의문을 제기했습니다.  Chegg의 주식은 금요일 현재 올해 28% 하락하여 시가총액이 약 23억 달러가 되었습니다.
OpenAI의 CEO Sam Altman은 월요일 보도 자료에서 신생 기업이 "전 세계 사람들의 학습 방식을 개선하기 위해" Chegg와 열심히 협력했다고 말했습니다.
Rosensweig는 Chegg의 독점 데이터가 관련성을 보여주었다고 말했습니다.  "그것이 그들이 우리와 함께 일하는 이유입니다."라고 그는 말했습니다.

ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ

여러가지 기술의 발전이 갑자기 빨라지자

미국은 규제를 만드는것도 중요하다며 이 분야에 대해서 열띤토론도 많이 일어나고 있습니다

그리고 빠르게 법안도 발의하고 규칙을 만드려고 하는중이죠

미국 정부에서는 ChatGPT를 포함한 GenerariveAI 도구들에 대한 규제 검토를 시작한지 꽤되었습니다

일론머스크도 규제가 필요하다 조심해야한다 등 경고를 자주 날렸었는데 비슷한 맥락이라고 보여집니다

Biden Administration Weighs Possible Rules for AI Tools Like ChatGPT

"워싱턴 — Biden 행정부는 ChatGPT와 같은 인공 지능 도구 가 유해한 정보를 차별하거나 유포하는 데 사용될 수 있다는 우려가 커지는 가운데 규제방안들 만들기위해서 움직이기 시작했다.

잠재적인 규제를 향한 첫 번째 단계에서 상무부는 화요일 잠재적으로  위험한 새로운 AI 모델이 출시되기 전에 인증 프로세스를 거쳐야 하는지 여부를 포함하여 책임 측정이라고 하는 것에 대한 공식 공개 요청을 발표했습니다.  "

기사 원문: https://www.wsj.com/amp/articles/biden-administration-weighs-possible-rules-for-ai-tools-like-chatgpt-46f8257b

Biden Administration Weighs Possible Rules for AI Tools Like ChatGPT

Fears are growing over the potential use of artificial intelligence to commit crimes and spread falsehoods.

www.wsj.com


기사 archive: https://archive.is/6phfS


출처 https://m.facebook.com/story.php?story_fbid=pfbid0F71aJqrbuoj3eTP93gnxMr6Dmqr6kPYz3u2YiEirvnTgSrEJbVeyJMiHNVcetBvWl&id=683301409&mibextid=Nif5oz

펌) 대규모 언어 모델의 계층화된 평가를 위한 시각화 기법인 LLMMaps에 관한 논문. 재미있는 시각화 기밥인 것 같습니다. 근데 소스코드와 데이터를 GitHub에 제공한다고 되어 있는데, 현재 버전 문서에서는 링크가 제대로 입력되지는 않았네요^^

제목: LLMMaps -- A Visual Metaphor for Stratified Evaluation of Large Language Models

논문에서는 Q&A 데이터세트를 기반으로 대규모 언어 모델의 계층화된 평가를 위한 시각화 기법인 LLMMaps를 제안하여 다양한 하위 분야에서 LLM의 지식 기능에 대한 자세한 인사이트를 제공하고 위험을 더 잘 평가하고 추가 개발을 유도하는 데 도움을 줍니다.

주요 인사이트와 교훈

- 대규모 언어 모델에는 환각이 발생하기 쉬우므로 세심한 평가 접근 방식이 필요합니다.
- 계층화된 평가는 환각이 발생할 가능성이 더 높은 하위 필드를 밝혀내어 LLM의 위험을 평가하고 추가 개발을 안내하는 데 도움이 됩니다.
- LLM맵은 Q&A 데이터세트와 LLM 응답을 내부 지식 구조로 변환하는 새로운 시각화 기법으로, 사용자가 다양한 하위 필드에 대한 LLM의 성능을 평가할 수 있도록 지원합니다.
- LLM맵은 다양한 하위 분야에서 LLM의 지식 역량에 대한 자세한 인사이트를 제공하여 LLM이 추가 교육이나 개선이 필요한 영역을 식별하는 데 도움을 줍니다.

Abstract:
대규모 언어 모델(LLM)은 자연어 처리에 혁명을 일으켰으며 다양한 작업에서 인상적인 능력을 보여주었습니다. 하지만 안타깝게도 모델이 응답에 부정확하거나 잘못된 정보를 노출하는 오류를 일으키기 쉽기 때문에 세심한 평가 접근 방식이 필수적입니다. 특정 지식 분야의 LLM 성능은 종종 질의응답(Q&A) 데이터 세트를 기반으로 평가되지만, 이러한 평가는 일반적으로 전체 분야에 대한 단일 정확도 수치만 보고하므로 투명성 및 모델 개선 측면에서 문제가 됩니다. 계층화된 평가는 대신 환각이 발생할 가능성이 더 높은 하위 필드를 밝혀내어 LLM의 위험을 더 잘 평가하고 추가 개발을 안내하는 데 도움이 될 수 있습니다.

이러한 계층화된 평가를 지원하기 위해 유니티는 사용자가 Q&A 데이터세트와 관련하여 LLM의 성능을 평가할 수 있는 새로운 시각화 기법으로 LLM맵을 제안합니다. LLM맵은 Q&A 데이터세트와 LLM 응답을 내부 지식 구조로 변환하여 다양한 하위 분야에서 LLM의 지식 역량에 대한 상세한 인사이트를 제공합니다. 또한 비교 시각화를 위한 확장 기능을 통해 여러 LLM을 자세히 비교할 수 있습니다. 저희는 LLM맵을 평가하기 위해 BLOOM, GPT-2, GPT-3, ChatGPT, LLaMa-13B 등 여러 최신 LLM과 두 가지 정성적 사용자 평가에 대한 비교 분석을 수행합니다. 과학 출판물 등에 사용할 LLM맵을 생성하는 데 필요한 모든 소스 코드와 데이터는 GitHub에서 확인할 수 있습니다.

ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ

- ChatGPT 시대의 GPU 시장

ChatGPT가 공개된 지 4개월 가량의 기간이 흘렀습니다. 1천만명이 훌쩍 넘는 일일 순 사용자 (DAU: Daily Active Users)를 보이면서도 안정적인 서비스를 하는 모습이 대단한데요, 심지어 제공하는 모델이 GPT-3.5와 GPT-4의 LLM이라는 점에서 엔지니어링 기술의 극한을 보는 느낌입니다.

저는 AI 가속기, 쉽게 말해서 GPU 시장에서는 추론용 칩셋의 중요도가 점차 높아질 거라 생각했습니다. 추론용 칩셋은 범용성은 다소 떨어지더라도 가격 또는 성능에서 NVIDIA와 같은 범용 칩셋에 비해 강점을 가질거라 생각했고요. 그런데 ChatGPT가 나오고 발전하는 모습 (GPT-4 공개)을 보니, 추론용 칩셋 시장의 방향성에도 적지 않은 변화가 발생할 것이라는 생각이 들었습니다.

우선, 기존의 추론용 칩셋이 갖는 강점은 속도 또는 가격입니다. 범용 칩셋의 기준점을 NVIDIA로 보면, NVIDIA보다 싸고 빠르게 추론할 수 있다는 것을 강점으로 내세운 곳이 많습니다. 그러나 공학은 늘 트레이드 오프를 고려해야 하죠. 추론용 칩셋에서 잃는 것은 쉬운 사용성입니다. 쉽게 말해서 추론용 칩셋에 맞게 모델과 그 모델을 서비스하는 구조를 바꿔야 한다는 말입니다. 일상생활에 빗대어 설명하면, 전통적인 범용 물류 시스템인 택배 대신 로켓배송과 같은 독자적인 물류 시스템을 직접 만들어야 한다고 볼 수 있습니다. NVIDIA를 이용한 AI 모델 서빙 (ChatGPT와 같은 AI 모델을 서비스로 제공하는 과정을 ‘서빙’이라고 합니다.)이 범용 물류 시스템인 택배에 해당하고, 추론용 칩셋을 이용한 AI 모델 서빙이 독자 물류 시스템인 로켓배송에 해당합니다. 쿠팡이 로켓배송을 구축하느라 어려움을 겪은 것 처럼, 추론용 칩셋을 이용한 AI 모델 서빙도 상당한 어려움이 있습니다.

추론용 칩셋 전용 AI 모델 서빙 파이프라인을 구축하기는 매우 어려운 일입니다. 하지만 이 어려운 과정을 겪고 나면, 저렴하거나 매우 빠르게 추론할 수 있는 장점을 얻을 수 있었습니다. 나름의 수지타산이 맞았습니다. 맞았습니다만…
ChatGPT와 같은 LLM (Large Language Model) 환경에서는 기존의 추론용 칩셋이 아마도 기대한 만큼 잘 동작하지 않을 것 같습니다. ChatGPT만 보더라도 GPT-3.5에서 GPT-4로 업그레이드가 되었는데요, 모델의 구조에서 적지 않은 변화가 있었던 만큼 대부분의 추론용 칩셋에서 이 변화를 커버할 수 있을지 의문입니다.

NVIDIA는 고유의 범용성으로 인해 이정도의 변화에는 충분히 대응이 가능합니다. InfiniBand 또는 NVLink가 적용된 시스템에서는 클러스터 규모가 LLM을 커버할 수 있다면 모델도 당연히 동작합니다. 구형 시스템이라면 속도가 문제되긴 하겠지만 동작은 가능합니다.

AI 모델은 변화가 빠릅니다. 변화하며 발전하는 폭도 상당히 크고요. ChatGPT를 통해 GPT-3.5와 GPT-4 차이를 느껴 보면 GPT-3.5는 더 이상 사용하고 싶지 않은 정도입니다. 만약 특정 추론용 칩셋이 GPT-3.5는 커버할 수 있지만 GPT-4를 커버할 수 없다면 어떻게 해야할까요? 새 칩셋을 구입해야 합니다. GPT-3.5를 계속 쓸 수는 없으니까요. 새로 구입한다면 NVIDIA를 구입하실 건가요, 아니면 추론용 칩셋을 구입하실 건가요? 조심스럽게 NVIDIA에 한 표를 던집니다. 추론용 칩셋의 논리적 수명이 생각보다 짧다는 것을 확인했기 때문에 범용성 높은 NVIDIA를 선택할 기업이 많을 거라 생각합니다.
.

추론용 칩셋에는 또다른 한계도 있습니다. 앞서 말씀드린 내용은 ChatGPT와 같은 LLM 모델이 추론용 칩셋에서 구동이 가능할 것이라고 전제한 이야기입니다. GPT-3.5의 경우 700GB 가량의 GPU 메모리를 요구한다고 알려져 있는데, 추론용 칩셋에서 이정도 규모의 메모리를 효율적으로 사용할 수 있을지 잘 모르겠습니다. NVIDIA는 NVLink를 통해 여러 GPU를 묶어 사용할 수 있도록 구성해 두었는데, 한계가 많긴 합니다만 대부분의 추론용 칩셋보다는 상황이 좋습니다.

LLM과 같은 거대한 모델의 세상에서는 여러 GPU를 하나처럼 묶어 사용하는 기술이 중요합니다. NVIDIA는 InfiniBand를 시작으로 NVLink를 통해 이러한 기술을 발전시켜 오고 있는데요, 여전히 이 부분이 바틀넥으로 작용합니다. 묶을 수 있는 GPU에 한계가 뚜렷합니다. 만약 추론용 칩셋이 니치 마켓을 뚫는다면, 여러 GPU를 하나처럼 묶어 쓰는 인터페이스를 타겟으로 하면 수요가 있지 않을까 생각도 들고요. (물론 기술 스택 상 GPU가 먼저 나와야 묶어 쓰는 인터페이스도 효율적으로 디자인이 가능할거라, 호락호락한 시장은 아닐 것 같습니다.)

아무튼, ChatGPT를 보니, AI 모델 학습 시장보다도 역시 추론 시장이 크다는 것은 느낄 수 있었습니다. 다만 현재로서는 NVIDIA의 입지가 공고하고 심지어 NVIDIA가 삼성파운드리를 벗어나 TSMC로 옮겨가며 기술 격차를 더욱 벌려 나가고 있다고 보여서, 추론 시장의 큰 몫을 차지하게 될 거대 모델 영역에서 추론 전용 칩셋의 마켓 쉐어를 쉽게 높이기는 어려워 보입니다.
.

현 시점을 아이폰이 나오던 초기 스마트폰 시장같다고 말씀하시는 분이 많이 계십니다. 저도 그렇게 생각이 들고요.
아이폰이 나오던 초기 시장에는 아이디어를 하드웨어가 따라가지 못했습니다. 하드웨어가 바틀넥인 시절이었죠. 지금을 Generative AI 시대라고 한다면, 이 시대의 초입인 현재도 아이디어를 하드웨어가 뒷받침해 주지 못한다는 생각이 듭니다.

모든 AI 모델이 LLM처럼 거대할 필요는 없겠지만, 한편으로는 범용성이 있는 모델이 점차 효율화되어가며 작은 특수목적용 모델의 시장을 잠식해 나갈 것 같습니다. 지식은 얇음으로 시작해서 발전해 가며 두꺼움이 되고, 재차 발전하며 다시 얇음으로 나아가니까요. 지금은 한없이 두꺼워지는 발전의 초입 단계라는 생각이 듭니다.

Eat or be eaten. 요즈음의 AI 시장을 보니 이 말이 떠오르네요.

추가로 읽어볼 수 있는 내용
출처 https://m.facebook.com/story.php?story_fbid=pfbid0NPKscZR5v8GbrAJ7apX3NsDFS9QAJV9wee4RovTZAW4YJS9THG81zMr8SkP6zg1Yl&id=100009346142985&mibextid=Nif5oz

320x100