2023 생성형 AI 트렌드, 작고 효율적인 모델의 등장

2 more properties

2023년 생성형 AI 트렌드: 작고 효율적인 모델, LoRA, MoE, 그리고 멀티모달

2023년 생성형 AI는 흥미로운 변화를 맞이했습니다. 과거에는 대규모 모델이 주를 이루었지만, 올해는 LoRA(Low-Rank Adaptation), MoE(Mixture of Experts) 등 작고 효율적인 모델의 등장, 그리고 LLM(Large Language Model)의 영역 확장 등 새로운 트렌드가 나타났습니다.

1. 작고 효율적인 모델의 등장

1.1. 왜 작고 효율적인 모델이 필요할까요?
과거에는 매개변수 수가 수백억, 수천억 개에 달하는 대규모 모델이 주류를 이루었습니다. 하지만 이러한 모델들은 훈련 비용이 엄청나게 높고, 상당한 메모리 및 컴퓨팅 성능을 요구하기 때문에 실제 응용 프로그램에 적용하기 어려운 단점이 있었습니다.
이에 작고 효율적인 모델이 등장하게 되었습니다. 작고 효율적인 모델은 훈련 비용이 저렴하고, 다양한 기기에서도 쉽게 실행할 수 있다는 장점이 있습니다.
1.2. 작고 효율적인 모델의 대표적인 예시
Mistral: 대부분의 벤치마크에서 대형 모델보다 성능이 뛰어난 7B 모델
Phi(Microsoft) 시리즈: 매개변수가 1.3B~2.7B에 불과하여 훨씬 작지만 인상적인 성능을 제공
Orca 2(Microsoft): GPT-4와 같은 더 큰 모델의 지식을 더 작은 모델로 추출하여 단순한 모방 학습이 아닌, 단계별 분석 및 리콜과 같은 추론 방법을 목표로 함. Orca 2는 비슷한 크기의 모델보다 더 뛰어난 성능을 발휘하여 5~10배 더 큰 모델과도 경쟁이 가능

2. 효율적인 Fine Tune을 도와주는 LoRA(Low-Rank Adaptation) 등장

LoRA는 매개변수 효율적인 미세 조정을 허용하여 계산 부하 및 저장 요구 사항을 크게 줄여줍니다. 이는 리소스를 절약하고 기본 모델의 핵심 기능을 손상시키지 않은 상태에서 다양한 애플리케이션에 대한 사용자의 정의를 가능하게 합니다.
Mixture of Experts Explained(MoE) 접근방식도 2023년 LLM 아키텍처의 중요한 도약을 나타냅니다.
MoE는 단일 모델로는 처리하기 어려울 수 있는 복잡한 작업에 대한 성능을 향상시킵니다.
MoE는 복잡한 문제를 작고 관리하기 쉬운 하위 문제로 나누어 단순화합니다. 각 하위 문제는 전문 하위 모델(전문가)가 해결합니다. 이를 통해 전체 모델의 성능을 향상시킬 수 있습니다.

3. LLM의 영역 확장(멀티모달)

LLM은 일반 기초 모델로 발전하여 언어 처리 이상의 기능으로 확장하고 있습니다. 이제 LLM은 텍스트, 코드, 시각적 콘텐츠, 오디오 등을 이해하고 생성할 수 있습니다.
멀티모달 LLM의 활용 사례
텍스트와 이미지를 함께 활용하는 챗봇: 텍스트 기반 챗봇보다 더 자연스럽고 풍부한 사용자 경험 제공
영상 자막 자동 생성: 영상 내용을 이해하고 자막을 자동으로 생성
음성 명령 인식 및 응답: 더욱 정확하고 자연스러운 음성 인식 및 응답 시스템 개발

4. 마무리

2023년 생성형 AI는 작고 효율적인 모델의 등장과 함께 새로운 트렌드를 맞이했습니다. 이러한 트렌드는 앞으로 더욱 발전하여 다양한 분야에서 활용될 것으로 기대됩니다.
참고 링크
추가 정보: 국내/외 주요 LLM 개발사 현황