Chat GPT는 빠르게 제너레이티브 AI의 사랑을 받았지만 해당 기술분야에서 유일한 플레이어는 아닙니다. 이미지 생성과 같은 작업을 수행하는 다른 모든 AI 도구 외에도 Chat GPT와 직접적인 경쟁자는 이미 많이 존재하고 있습니다. 최근 Chat GPT를 사용 시 사용자가 과다함에 따라 프롬프트에 제때 대응하지 못하는 경우가 빈번하게 발생하고 있으며 용량 초과라는 메시지를 받은 사람들은 Chat GPT를 대체할 수 있는 새로운 프로그램을 찾기를 희망합니다. 다음에 나열된 프로그램들은 모두가 Chat GPT만큼 사용자가 쉽고 편리하게 접근할 수 있는 것은 아니지만 최근 Chat GPT를 사용 시 불편함을 느끼신 분들에게는 최고의 대안이 될 수 있습니다.
1. 마이크로 소프트(Microsoft)의 빙(Bing)
마이크로 소프트에서 재설계된 검색엔진인 빙은 Chat GPT의 좋은 대안 중 하나입니다. 마이크로 소프트는 최근 Bing 검색 엔진에 AI를 추가했으며 곧 Edge 브라우저에서도 이 기능을 출시할 계획입니다. 아직 프리뷰 단계에 있지만 지금 바로 새로운 빙에서 신규로 추가된 AI 챗봇을 사용해 볼 수 있습니다. 마이크로 소프트는 초기에는 쿼리 수를 제한한다고 말하고 있습니다. 현재 새로운 빙은 Bing Chat GPT 대기자 명단에 가입하여 정식 버전을 사용할 수 있을 때 알림을 받을 수 있습니다.
2. 구글(Google)의 BERT
BERT(Bidirectional Encoder Representations from Transformers)는 구글에서 개발한 기계 학습 모델입니다. BERT는 질문 응답 및 감정 분석과 같은 자연어 처리(NLP, Natural Language Processing) 기능으로 유명합니다. 그것은 각각 8억 단어와 25억 단어를 학습한 북 코르푸스(Book Corpus)와 위키디피아 영어판(English Wikipedia)을 참조하여 사전 학습을 위한 모델로 사용합니다. BERT는 2018년 10월 오픈 소스 연구 프로젝트 및 학술 논문으로 처음 발표되었습니다. 이후 이 기술은 구글 검색에 구현되었습니다. BERT에 대한 초기 문헌은 2018년 11월 Open AI의 Chat GPT와 비교하여 구글의 기술이 들어오는 텍스트를 예측하는 데 도움이 되는 깊은 양방향성이라고 언급했습니다. 한편 Open AI Chat GPT는 단방향이며 복잡한 쿼리에만 응답할 수 있습니다.
3. 구글(Google)의 Meena
Meena는 구글이 2020년 1월 선보인 챗봇으로 사람처럼 대화할 수 있는 기능을 갖추고 있습니다. 그 기능의 예로는 재미있는 농담과 말장난이 포함된 간단한 대화가 있습니다. Open AI의 GPT-2에 대한 직접적인 대안으로 제시되었던 Meena는 당시 경쟁 제품보다 8.5배 많은 데이터를 처리할 수 있었으며, 프로그램은 2.6개의 매개변수로 구성되며 공개 도메인 소셜 미디어 대화에 대해 훈련됩니다. Meena는 또한 대화기술 성능 평가지표인 SSA(Sensibleness and Specificity Average)에서 79%의 메트릭 점수를 받아 당시 가장 지능적인 챗봇 중 하나가 되었습니다.
4. 메타(META)의 RoBERTa
RoBERTa (Robustly Optimized BERT Pretraining Approach)는 메타가 2019년 7월에 발표한 기존 BERT의 또 다른 고급 버전입니다. 메타는 사전 교육 모델로 더 큰 데이터 소스를 사용하여 이 자연어 처리(NLP, Natural Language Processing) 모델을 만들었습니다. RoBERTa는 2016년 9월부터 2019년 2월 사이에 생성된 6,300만 개의 영어 뉴스 기사가 포함된 커먼 크롤(Common Crawl, CC-News)을 76GB 데이터 세트로 사용합니다. 이에 비해 기존 모델인 BERT는 페이스북에 따르면 위키디피아 영문판(English Wikipedia)과 북 코르푸스(Book Corpus) 데이터 세트 간에 16GB의 데이터를 사용합니다.
XLNet과 마찬가지로 RoBERTa는 메타의 연구에 따라 일련의 벤치마크 데이터 세트에서 BERT를 이겼습니다. 이러한 결과를 얻기 위해 회사는 더 큰 데이터 소스를 사용했을 뿐만 아니라 더 오랜 기간 동안 모델을 사전 훈련했습니다. 메타는 2019년 9월에 RoBERTa를 오픈 소스로 만들었고 해당 코드는 커뮤니티 실험을 위해 GitHub에서 사용할 수 있습니다.
5. 구글(Google)의 XLNet
XLNET은 구글 브레인(Google Brain)과 카네기 멜론 대학교(Carnegie Mellon University) 연구원 팀이 개발한 변환기 기반 자동 회귀 언어 모델입니다. 이 모델은 본질적으로 더 발전된 BERT이며 2019년 6월에 처음 선보였습니다. 이 그룹은 XLNet이 2018년에 발표된 원래 BERT보다 자연어 처리(NLP, Natural Language Processing) 작업에서 최소 16% 더 효율적이며 20개의 테스트에서 BERT를 이길 수 있음을 발견했습니다.
XLNet과 BERT 모두 마스킹된 토큰을 사용하여 숨겨진 텍스트를 예측하므로 XLNet은 프로세스의 예측 부분을 가속화하여 효율성을 향상합니다. 예를 들어, Amazon Alexa을 개발한 데이터 과학자 아이쉬와라 스리니바산(Aishwarya Srinivasan)은 XLNet이 "New"라는 용어가 "York"이라는 해당 용어와 연관되어 있다고 예측하기 전에 단어가 "is a city"라는 용어와 연관되어 있음을 식별할 수 있다고 설명했습니다. 한편, BERT는 "New"와 "York"라는 단어를 별도로 식별한 다음 "is a city"라는 용어와 연결해야 합니다. XLNet 코드 및 사전 학습된 모델은 GitHub에서 사용할 수 있습니다. 이 모델은 자연어 처리(NLP, Natural Language Processing) 연구 커뮤니티에서 잘 알려져 있습니다.
6. 마이크로 소프트 리서치(Microsoft Research)의 DialoGPT
DialoGPT(Dialogue Generative Pre-trained Transformer)는 마이크로 소프트 리서치에서 2019년 11월에 도입한 자동 회귀 언어 모델입니다. GPT-2와 유사한 이 모델은 인간과 같은 대화를 생성하도록 사전 훈련되었습니다. 그러나 주요 정보 소스는 Reddit 스레드에서 스크랩한 1억 4,700만 개의 멀티턴 대화였습니다. 휴먼퍼스트(HumanFirst)의 수석 에반젤리스트인 코버스 그레이링(Cobus Greyling)은 모델을 챗봇으로 구현하기 위해 텔레그램(Telegram) 메시징 서비스에 DialoGPT를 성공적으로 구현했다고 언급했습니다. 그는 아마존 웹 서비스(Amazon Web Services)와 아마존 세이지메이커(Amazon SageMaker)를 사용하면 코드를 미세 조정하는 데 도움이 될 수 있다고 덧붙였습니다. DialoGPT 코드는 GitHub에서 사용할 수 있습니다.
7. 구글(Google)의 ALBERT
ALBERT(A Lite BERT)는 원래 BERT의 새로운 버전으로 2019년 12월 구글에서 개발했습니다. ALBERT를 사용하여 구글은 숨겨진 레이어 임베딩이 있는 매개변수를 도입하여 모델에서 허용되는 매개변수의 수를 제한했습니다. ALBERT는 더 작은 매개변수를 고수하면서 두 개의 최신 모델에 사용된 동일한 더 큰 정보 데이터 세트에서 훈련될 수 있기 때문입니다. 이는 BERT 모델뿐만 아니라 XLNet 및 RoBERTa에서도 개선되었습니다. 기본적으로 ALBERT는 기능에 필요한 매개변수로만 작동하므로 성능과 정확성이 향상되었습니다. 구글은 SAT(Scholastic Aptitude Test)와 같은 독해력 벤치마크를 포함하여 12개의 자연어 처리(NLP, Natural Language Processing) 벤치마크에서 ALBERT가 BERT를 초과하는 것으로 나타났습니다. 구글은 2020년 1월 ALBERT를 오픈 소스로 출시했으며 구글의 Tensor Flow 위에 구현되었습니다. 코드는 GitHub에서 사용할 수 있습니다.
8. 구글(Google)의 T5
T5(Text-to-Text Transfer Transformer)는 구글이 2019년에 도입한자연어 처리(NLP, Natural Language Processing 모델로 Chat GPT, BERT, XLNet, RoBERTa, ALBERT 등 이전 모델에서 차용했습니다. Colossal Clean Crawled Corpus(C4)라는 새롭고 고유한 데이터 세트를 추가하여 변환기가 XLNet에 사용되는 커먼 크롤(Common Crawl) 웹 스크랩과 비교하여 다른 데이터 세트보다 더 높은 품질의 콘텍스트 결과를 생성할 수 있습니다. T5 사전 교육을 통해 InferKit Talk To Transformer 및 AI Dungeon 게임을 비롯한 챗봇 애플리케이션이 만들어졌습니다. 텍스트 생성기는 초기 프롬프트 또는 쿼리 후에 AI가 생성하는 내용을 기반으로 현실적인 대화를 생성할 수 있다는 점에서 Chat GPT와 유사합니다. T5 코드는 GitHub에서 사용할 수 있습니다.
9. 세일즈포스(Salesforce)의 CTRL
세일즈포스의 CTRL(Computational Trust and Reasoning Layer)은 2019년 9월 세일즈포스에서 발표했을 때 공개적으로 발표된 가장 큰 언어 모델 중 하나였습니다. 16억 개의 매개변수 언어 모델을 사용하여 웹 페이지와 관련된 텍스트와 같은 대규모 텍스트 본문을 한 번에 분석할 수 있습니다. 몇 가지 잠재적인 실제 용도에는 리뷰, 평가 및 속성과의 페어링이 포함됩니다. CTRL 언어 모델은 특정 쿼리의 의도를 구두점까지 구별할 수 있습니다. CTR은 위키디피아(Wikipedia), 프로젝트 구텐베르크(Project Gutenberg), 아마존(Amazon) 리뷰 및 레딧(Reddit)을 포함한 소스에서 사전 훈련을 위해 최대 140GB의 데이터를 참조합니다. 또한 여러 국제 뉴스, 정보 및 퀴즈 리소스를 참조합니다. CTRL 코드는 GitHub에서 사용할 수 있습니다.
10. 구글(Google)의 GShard
GShard는 구글이 프로그램 확장을 목적으로 2020년 6월에 도입한 거대한 언어 번역 모델입니다. 이 모델에는 6000억 개의 매개변수가 포함되어 있어 한 번에 많은 데이터 세트를 훈련할 수 있습니다. GShard는 특히 언어 번역에 능숙하며 4일 만에 100개 언어를 영어로 번역하도록 교육을 받고 있습니다.
11. 메타 AI 리서치(META AI Research)의 Blender
Blender는 메타 AI 리서치에서 2020년 4월에 소개한 오픈 소스 챗봇입니다. 이 챗봇은 매력적인 대화 포인트를 제공하고 파트너의 입력에 대한 이해를 듣고 보여주며 공감과 개성을 보여줄 수 있는 기능을 통해 경쟁 모델보다 대화 기술이 향상된 것으로 알려져 있습니다. Blender는 구글의 Meena 챗봇 및 Open AI의 GPT-2와 비교되었습니다. Blender 코드는 Parl.ai에서 사용할 수 있습니다.
12. 구글(Google)의 페가수스
Pegasus는 2019년 12월 구글에서 소개한 자연어 처리(NLP, Natural Language Processing) 모델입니다. Pegasus는 요약을 생성하도록 훈련될 수 있으며 BERT, GPT-2, RoBERTa, XLNet, ALBERT 및 T5와 같은 다른 모델과 유사하게 미세할 수 있습니다. Pegasus는 인간 대상과 비교하여 뉴스, 과학, 이야기, 지침, 이메일, 특허 및 입법 법안을 요약하는 효율성에 대해 테스트되었습니다. Pegasus 코드는 GitHub에서 사용할 수 있습니다.
'기술' 카테고리의 다른 글
한국, 인공지능을 활용한 범죄 및 사고 예방으로 안전한 학교 구현 (21) | 2023.05.12 |
---|---|
한국, 디지털 자동화 기술로 빨라지는 대민 업무 (45) | 2023.05.11 |
AI 선구자, 구글을 떠나 기술의 실존적 위협을 인류에게 경고 (5) | 2023.05.06 |
IBM, 인공 지능으로 7,800개의 일자리를 대체 예정 (7) | 2023.05.06 |
GPT-4를 기반으로 개발된 애플리케이션 Top 6 (2) | 2023.05.06 |
댓글