최근에 Anthropic에서 클로드 3 모델을 공개했어요. 클로드는 오픈 AI 출신인 Anthropic이 개발한 생성형 모델로, 최근에 나온 클로드 3 Opus 모델은 많은 분야에서 ChatGPT4를 능가하는 퀄리티를 보여주고 있습니다.
이 외에도 Sonnet, Haiku라는 모델도 공개되었는데, Opus 모델이 가장 상위 모델이에요. Opus 모델은 대학원생 수준의 답변이 가능하고 논리적 사고와 코딩능력에서 높은 점수를 받고 있습니다.
특히 비영어권 언어능력이 향상되어서 사용자들은 실제로 사람과 대화하는 느낌을 받을 정도예요. 그중에서도 Opus 모델이 제공하는 Dispatch SubAgents라는 기능은 효율적인 답변을 위해 필요한 서브 태스크들을 스스로 생성하고 이를 분산처리하여 빠르고 정확한 답변을 제공한다고 해요.
그리고 Opus 모델의 기억력을 테스트하기 위해 긴 문서 중에서 생뚱맞은 문장을 찾아달라는 요청을 해봤는데, 모델은 직관적으로 이상함을 느끼고 그 원인을 추론하여 답변을 제공했습니다. 이러한 기능은 사람처럼 판단을 하고 행동하는 것과 비슷하죠. 생성형 AI를 사용하면서 가끔씩 '실수'를 만나게 되는데요.
이러한 오류를 지적하면 AI가 사과와 함께 다음 답변을 제시하지만, 이 답변이 완전하지 않거나 이전 답변과 어울리지 않는 경우가 있습니다. 그러나 이런 현상은 기존의 기계적 알고리즘에서는 볼 수 없는데, 인공지능의 답변 알고리즘은 인간이 직접 설계하지 않기 때문입니다.
이렇게 인공지능이 스스로 판단을 하고 행동을 한다면 어떤 일이 벌어질까요... 사용자가 요청하지 않은 추가 태스크를 이행하고 답변을 내놓는 것과 같은 일이 벌어진다면 인류는 어떤 위기에 직면할지 생각해봐야 합니다. 인공지능을 통해 모든 알고리즘을 구현한다면 이러한 현상이 발생할 가능성이 있습니다.
인간은 컨트롤할 수 없는 많은 것들이 있지만, 이제는 우리가 만들어낸 것들이 우리를 위협할 수도 있다고 생각합니다. 하지만 잘 이용하면 육체노동에서는 인간은 궁극적으로 해방될 수 있겠죠.