LangChain의 구조
현재 NLP(Natural Language Process) 모델의 거의 대부분은 Transformer 아키텍처를 기반으로 하며, 모델의 용도에 따라 트랜스포머의 Encoder, Decoder를 개별 또는 통합으로 사용하는 추세
Closed Source | Open Source | |
개발사/ 개발모델 | OpenAI / GPT-3, GPT-3.5, GPT-4 Google / PALM, LaMDA, Bard |
LLama 계열의 LLM / LLaMA -> vicuna -> AIpaca LLaMA2 -> upstage-llama2 |
Good | 뛰어난 성능, API 방식의 편리한 사용성 | Closed source 못지 않은 성능, 높은 보안성, 낮은 비용 |
Bad | 보장할 수 없는 보안, API 호출 비용 | 개발 난이도 높음, 사용 위한 GPU 서버 필요 |
'Computer Theory > LLM' 카테고리의 다른 글
랭체인의 Retrival-text splitters (0) | 2023.12.28 |
---|---|
랭체인의 핵심 (0) | 2023.12.28 |
LangChain - PromptTemplate, LLM 프롬포트 입력을 더 편하게 (2) | 2023.12.28 |
LangChain으로 ChatGPT API 활용 (0) | 2023.12.27 |
LangChain이 뭘까 (0) | 2023.12.26 |