본문 바로가기

그밖에 여러가지 이야기

오픈Ai 발전속도가 거의 빛의속도 수준

반응형

Ai발전속도가 엄청 급진적이네요

구글이 바둑점령한지 얼마나 되었다고 ㅎㄷ...

스타크레프트 플레이까지 재미있게 보긴했는데

그다음엔 벌써... 각종 시험은 다 통과하고...

1인 1pc시대처럼

이제는 1인 1 Ai로봇 시대가오면

대리변호 , 의학적진찰 , 가사도우미 , 육아 다해주겠네요

분명 구독서비스겠죠? 분야별? ㅋㅋ

전체 서비스는 월 29만9천900원 할수도 ㅋㅋ

ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ


MetaAI에서 제가 최근에 지속적으로 이야기 하던 방향인,
“that almost all knowledge in large language models is learned during pretraining, and only limited instruction tuning data is necessary to teach models to produce high quality output”,
즉 Pretrain에서 이미 (거의) 모든 지식을 배웠고, 어떻게 말해야 할지만 알려주면 된다- 라는걸 실증적으로 보여준 페이퍼가 나왔네요.

여기선 이제 5만개도 아닌 겨우 1000개로 파튜.

출처
https://arxiv.org/abs/2305.11206

LIMA: Less Is More for Alignment

Large language models are trained in two stages: (1) unsupervised pretraining from raw text, to learn general-purpose representations, and (2) large scale instruction tuning and reinforcement learning, to better align to end tasks and user preferences. We

arxiv.org

320x100