Code&Data Insights
[AI Times] LLM 훈련 데이터의 고갈 | LLM 속 지식 저장 위치를 찾아내는 방법? 본문
[AI Times] LLM 훈련 데이터의 고갈 | LLM 속 지식 저장 위치를 찾아내는 방법?
paka_corn 2024. 4. 5. 10:30https://www.aitimes.com/news/articleView.html?idxno=158463
"2년 내 LLM 학습 데이터 고갈...데이터 문제로 AI 발전 중단될 것" - AI타임스
급속도로 성장하는 인공지능(AI) 모델이 데이터 부족 문제로 위협받고 있다는 지적이 나왔다. 현재 인터넷상에 존재하는 데이터만으로는 2년 내 AI 모델 성능을 높이는 데 한계를 맞을 것이라는
www.aitimes.com
요약 : AI 모델인 GPT-4나 구글의 제미나이와 같은 기술은 데이터 부족에 직면하고 있음. 데이터 요구량은 증가했지만, 품질이 낮거나 저작권 문제로 인해 접근이 제한되어 있기 떄문!
--> 이에 대안으로 합성 데이터를 사용할 수 있지만, 모델 붕괴 가능성이 있습니다. 이러한 이유로 향후에는 도메인별 지식을 집중한 전문 모델이 GPT-4와 같은 대규모 범용 모델보다 더 주목받을 것으로 예상됨
https://www.aitimes.com/news/articleView.html?idxno=158428
MIT, LLM 속 지식 저장 위치를 찾아내는 방법 발견…"환각 문제 개선 가능" - AI타임스
간단한 일차함수를 사용, 대형언어모델(LLM) 내에서 특정 지식이 어디에 저장돼 있는지를 확인할 수 있다는 연구 결과가 나왔다. 이를 통해 LLM의 환각 현상을 줄일 수 있다는 설명이다. MIT 뉴스는
www.aitimes.com
요약 : 트랜스포머의 다양한 레이어 내에서 특정 관계에 대한 특정 정보가 어디에 저장되어 있는지를 시각화하는 방법을 사용하여
저장된 지식을 수정하고 AI 챗봇이 잘못된 정보를 제공하는 것을 방지!
Reference : AI타임스(https://www.aitimes.com)
'Artificial Intelligence > Natural Language Processing' 카테고리의 다른 글
[The Gradient] Car-GPT: Could LLMs finally make self-driving cars happen? (0) | 2024.04.01 |
---|---|
[Generative AI] Generate Text using Generative AI (ChatGPT-3.5) (0) | 2024.03.26 |
[Generative AI] Generative AI | Capabilities of Generative AI (0) | 2024.03.23 |
[NLP] Large Language Model (LLM) (0) | 2024.03.23 |
[Deep NLP] Attention | Transformer (0) | 2023.12.26 |