IT 인터넷

당신보다 유능한 최신 인공지능 ChatGPT의 기능

구름산신작가 2022. 12. 21. 10:54
반응형

획기적인 언어 모델을 채택한 챗GPT

 

챗GPT가 채택한 최신 언어 모델은 대화 상호작용을 염두에 두고 설계되었으며, 구어 또는 문어를 분석하고 이해한 후 입력에 따라 응답을 생성한다. 연구진은 강화 학습 보상 모델을 개발하기 위해 인간 AI 트레이너를 투입, 사용자 및 인공지능 보조자라는 두 가지 역할의 대화를 했다. 즉, 두 개 이상의 모델 답안을 포함한 비교 데이터를 수집하기 위해 챗봇 상호작용을 이용한 것이다.

 

연구원들은 모형으로 작성된 문장을 무작위로 선택하고, 몇 가지 가능한 결론을 표본으로 추출한 후 AI 트레이터에게 순위를 매겨달라고 요청했다. 이후 심층 강화 학습 모델의 하나인 PPO(Proximal Policy Optimization) 기술을 사용하여 보상 모델을 수정 및 조정했다. 그리고 이 과정은 연구자들에 의해 여러 번 반복되었다. 참고로 2022년 초에 훈련을 종료한 ChatGPT 훈련용 모델은 GPT-3.5 시리즈이다. (3.5 시리즈에 대해서는 나중에 기회가 되면 다시 설명하겠다.)

 

 

ChatGPT는 어디에 사용할까? - ChatGPT의 기능

 

Chat GPT는 다양한 분야에서 생산성을 높이기 위해 사용할 수 있는 강력한 도구이다. 놀라운 확장성으로 광범위한 목적에 사용될 수 있는데, 예를 들어 산술문제나 회계문제 해결, 보고서 작성, 프레젠테이션, 블로그, 튜토리얼 작성, 비즈니스 전략, 코드 스니펫 등 거의 무제한의 영역에서 인간의 업무 능력을 향상하거나 또는 넘어설 수 있다.

 

ChatGPT를 사용하여 업무 능력 강화를 꾀할 수 있는 대표적 분야는 다음과 같다.

  • 문서 생성: 보고서, 프레젠테이션, 제안서 등의 문서를 작성할 수 있다. 중요한 데이터를 몇 개 입력하거나, "차트와 그래프로 분기별 판매량 보고서를 작성할 수 있을까?"와 같이 입력하면 된다. 
  • 이메일 회신: 맞춤형으로 이메일 답변을 작성할 수 있다. 이를 통해 시간을 절약하고 중요한 커뮤니케이션을 신속하게 전문적으로 처리할 수 있다. 예를 들어 Chat GPT에게 "이 이메일 요청에 대해 친절하고 전문적인 방식으로 어떻게 대응해야 합니까?"라고 질문할 수 있다.
  • 데이터 분석: 방대한 양의 데이터를 분석하고 중요한 패턴과 통찰력을 발견하여 팀이 데이터 중심에서 보다 나은 선택을 할 수 있도록 지원한다. "지난 1년간 당사의 판매 통계에서 중요한 동향은 무엇인가?"와 같이 질문할 수 있다.
  • 비즈니스 아이디어: 업계와 시장에 대한 정보를 수집하고 미래의 개념과 아이디어를 만들 수 있도록 함으로써 새로운 기업 아이디어를 개발하는 데 사용할 수 있다. 이를 통해 기업가와 비즈니스 리더가 새롭고 독창적인 새로운 상품, 서비스 및 이니셔티브를 개발할 수 있다. "의료업계의 새로운 소프트웨어 솔루션에 대한 비즈니스 아이디어를 개발할 수 있을까?"와 같이 질문할 수 있다. 
  • 코드 생성: 코드 생성, 오류 검출, 복구를 가능하게 한다. 필요한 기능에 대한 몇 가지 세부 정보를 요청함으로써 개발자가 수정하고 보강할 수 있는 사용 가능한 코드를 생성할 수 있다. 코딩의 일반적인 결함을 식별하고 수정 방법에 대한 지침을 제공함으로써 프로그램 디버깅에도 사용할 수 있다. 예를 들어 "번호 목록의 평균을 계산하고 다음 코드에서 구문 오류를 지적하는 함수를 구축할 수 있을까?"와 같이 질문할 수 있다.

 

 

ChatGPT의 제한 사항

 

Chat GPT는 입력 문구의 변경이나 같은 질문에 대한 여러 번의 시행에 민감하다. 예를 들어 질문의 한 문구가 주어지면 처음엔 모른다고 주장할 수 있지만, 조금만 바꿔 질문하면 정확하게 대답할 수도 있다.

 

또, 종종 매우 장황하거나 특정 용어를 반복적으로 과도하게 사용하기도 한다. 모델에 따른 인공지능의 이러한 문제는 훈련 데이터의 편견과 과잉 최적화 등으로 인해 발생한다. 

 

특히 주의해야 할 부분은 간혹 '옳은 것처럼 보이지만 실제로는 거짓 또는 부조리한 응답'을 생성할 수도 있다는 것이다. 이 문제를 수정하는 것은 다음과 같은 이유로 쉽지 않다. 

 

  • 현재 RL 교육 전반에 걸쳐 '진실의 출처'는 없다.
  • 모델은 주의 훈련의 결과로 정확하게 대답할 수 있는 쿼리를 거부한다. 
  • 모델은 지도 훈련에 의해 현혹된다. 왜냐하면 최상의 대응은 인간 시연자가 무엇을 알고 있느냐보다 모델이 무엇을 알고 있느냐에 달려있기 때문이다. 

 

이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.

 

반응형