커뮤니티

[ 정보 / 화물∙특장 ] 챗GPT 최신 버전 공개…이미지 인식하고 한국어 성능 향상

2023-03-16 17:17 방스기계


33fc7ffc3ba75d3d5711388e9f87471f_1678954636_0255.jpg

https://www.busan.com/view/busan/view.php?code=2023031611104788795



최근 전세계적으로 돌풍을 불러오고 있는 챗GPT 개발사인 오픈AI가 GPT-3.5의 업그레이드 버전인 GPT-4를 출시했다.
과연 그 성능은 얼마나 향상됐을까. 가장 주목되는 것은 이미지나 그래프를 인식해 답변할 수 있다는 점이다.

16일 정보기술(IT) 업계에 따르면 오픈AI는 지난해 11월 챗GPT를 내놓은 지 약 4개월 만인 14일(현지시간)에 대규모 AI 언어 모델(LLM) GPT-4를 공개했다.

GPT-3의 매개 변수(파라미터) 규모인 1750억개를 크게 넘은 1조개 이상의 매개 변수를 갖출 것이라는 추정이 있었지만 오픈AI는 이를 공개하진 않았다.

GPT-4는 텍스트뿐만 아니라 이미지를 포함한 여러 데이터 형태를 인식한다.
즉 문자로만 대화할 수 있었으나 앞으로는 사진과 문자를 결합한 질문에도 답변할 수 있게 발전했다.
예를 들어 계란과 밀가루, 버터, 우유 사진을 올리고 “이것으로 무슨 요리를 할 수 있나”라고 물으면 “팬케이크나 와플, 프렌치토스트 등”이라고 답할 수 있다.

언어 능력도 향상됐다. GPT-4는 미국 모의 변호사 시험에서 90번째, 대학 입학 자격시험인 SAT 읽기·수학 시험에서는 각각 93번째와 89번째의 백분위수를 기록했는데 이는 상위 10% 수준이라고 오픈AI는 설명했다.

오픈AI는 “평소 대화에서는 GPT-3.5와 차이가 크게 나지 않을 수 있지만 GPT-4는 훨씬 더 신뢰할 수 있고 창의적이며 더 미묘한 명령을 처리할 수 있다”고 설명했다.

특히 GPT-3.5의 고질적 문제였던 ‘할루시네이션(환각) 현상’도 크게 줄었다고 오픈 AI는 설명했다.
이는 AI가 틀린 정보나 무의미한 내용을 마치 환각을 보는 듯이 그럴듯하게 제시하는 현상을 말한다.

한국어를 비롯한 비영어 언어 성능이 높아졌다는 설명이다. 오픈AI가 시험한 26개 언어 가운데 GPT-4는 한국어와 일본어, 프랑스어 등 24개 언어에서 GPT-3.5가 영어를 하는 수준보다 더 높은 성능을 보였다.
다만 이는 앞으로 검증해봐야 할 문제다.







 

comments

댓글 0

내용
profile_image

등록된 댓글이 없습니다.