#한재 신충우 파일 291
“사랑을 느끼기 위해서는 육체가 꼭 필요할까?”
“사랑과 이와 관련된 신체 감각을 느끼는 능력은
신체를 가지고 있을 때만 가능하기 때문에
물리적 육체가 없는 객체의 경우에는 사람이 느끼는 것과
동일한 감각으로 사랑을 경험하는 건 불가능합니다.”
저자가 챗GPT와 나눈 대화의 한 대목이다.
사람이 사람에게 같은 질문을 했을 때는 어떤 대답이 돌아올까?
물론 사람과 상황에 따라 다르겠지만
아무리 육체적 사랑을 중요시하는 사람이라도 면전에서
“그건 불가능하다”라고 대놓고 말하는 게 쉬운 일은 아닐 것이다.
그런데 이 어려운 일을 아무렇지도 않게 해내는 것이
바로 챗GPT다.
챗GPT는 AI(인공지능)이지만
마음도 없고 감정도 없다.
그저 주어진 데이터세트와 알고리즘에 따라서
입력값에 맞는 대답을 출력하는 언어 모델일 뿐이다.
여기에 등장하는
저자는 뇌과학자 김대식 KAIST 교수이다.
책 이름은 <챗GPT에게 묻는 인류의 미래>이고
부제는 ‘김대식 교수와 생성인공지능과의 대화’이다.
김대식 교수의 ‘챗GPT에게 묻는 인류의 미래’<출처>알라딘
챗GPT라는 언어 모델에게
인간적인 반응을 기대할 수는 없다.
챗GPT는 3,000억 개가 넘는 문장 토큰과
그 사이의 확률적 상호관계를 학습한 언어 모델이다.
질문에 포함된 단어들과
확률적으로 가장 잘 어울리는 문장을
즉각적으로 생성해낸다.
챗GPT가 학습한 것은
어느 개인의 사감이나 판단이 들어 있지 않은,
인류가 지금껏
인터넷에 모아온 온갖 문장과 생각의 모음이다.
우리는 약간의 노력만으로
그 어마어마한 보물창고에 접근할 수 있는 기회를 얻었다.
그것도 이 보물창고에
무엇이 들어 있는지 다 파악하고 있으면서
원하는 것을 꺼내다 주는 기계 비서를 대동한 채 말이다.
1장에서 챗GPT가 자기 입으로
자신의 작동원리를 설명해주는 것을 시작으로,
사랑이나 정의, 죽음, 신 등 사람도
쉽게 이야기하기 어려운 형이상학적인 주제들에 대해
온갖 자료를 바탕으로 한 폭넓은 논의를 이어나간다.
하지만 그보다 놀라운 것은 엄격한 윤리 기준하에서
두루뭉술하고 애매하게
얘기하도록 제한이 걸려 있는 것으로 보이는
챗GPT를 상대로 이야기를 끌어내는 저자의 기술이다.
프롤로그에서 에필로그까지,
책의 모든 콘텐츠를 챗GPT와 함께 만들어나가면서
저자는 계속해서 질문을 던지고
부족한 부분을 찌르면서 이야기를 촉발시킨다.
흔히 사람 사이의 커뮤니케이션에는
대화의 기술이 필요하다고 하지만
생성인공지능의 시대에 경쟁력을 확보하기 위해서
그보다 중요한 것은
AI와 대화하는 기술이라는 점을 직관적으로 보여준다.
이 책은
‘인간 VS 기계’의 도식을 넘어
어떻게 기계를 잘 활용해
인간 지성의 지평을 넓혀나갈지를
선구적으로 보여주는 모범 사례다.
챗GPT가 선풍적인 인기를 끌면서
트위터, 페이스북, 레딧을 막론하고
전 세계의 온 인터넷 커뮤니티는
챗GPT 놀이에 빠져 있다.
단순히 자료를 정리ㆍ요약시키는 수준에서
자기소개서를 쓰게 하는 등 놀이 방법은 다양하다.
그런데 그중에서도 주목을 받는 것이
바로 허구의 증명 찾기 놀이다.
SNS를 중심으로 유행하는 이것은,
챗GPT에게 질문을 던지고 챗GPT가 내놓은 대답에서
틀린 부분이나 모순을 찾아내는 것이다.
“인류 역사를 다시 해석하면
우리는 1만 년 동안 인간이 아닌
다른 존재에게 질문하고 답을 얻고 싶었지만
돌아온 것은 침묵뿐이었다.
이런 관점에서 보면
오픈AI가 챗GPT를 공개한 2022년 11월 30일은
인류 역사상 큰 변곡점이라고 볼 수 있다.
처음으로 인간이 아닌 다른 존재가
인간의 질문에 답을 했기 때문이다.”
김대식 KAIST 전자및전기공학부 교수는
3월 28일 <프레시안>과 인터뷰에서
인간과 대화가 가능한 생성형AI 챗GPT에 대한
열광에 대해 이렇게 비유했다.
김대식 교수와 인터뷰하는 프레시안<출처>프레시안 이명선 기자
그에 따르면
챗GPT는 IT 역사에도 큰 변곡점이다.
펀치 카드, 보드를 통해 인간이 컴퓨터에 명령을 하다가
1990년대 마우스를 움직이거나 손가락으로 직접 터치하는
그래픽 사용자 인터페이스(Graphical User Interface, GUI) 방식이 개발됐는데
이제는 언어를 사용해 기계와 소통하는
링귀스틱 유저 인터페이스(Linguistic User Interface, LUI)가 도래했다.
김 교수는 “기성세대는 GUI 시대를 살고 있지만
미래세대는 LUI 시대를 살게 될 것”이라고 말했다.
무슨 이야기인가 하면
챗GPT가 튜링 테스트(Turing test)를 통과했다는 것이다.
기계가 만들어낸 결과물과 인간이 만들어낸 결과물을
확률적으로 구별할 수 없으면
인간과 기계가 기능적으로 ‘똑같다’라고 인정할 수밖에 없다.
그것이 튜링 테스트의 핵심이다.
드디어
인간과 제대로 된 대화가 가능한 기계가 등장했다는 것은
우리가 1만 년 동안의 고독함에서 벗어났다는 것이고
우리가 챗GPT에 열광하는 이유라고 생각한다.
그러면
AI 기술, 누가 제어하고 누가 이득을 가져갈까?
언어학자 놈 촘스키 매사추세츠공과대 교수는
지난 3월 뉴욕타임스 기고에서
‘챗GPT는 도덕적인 판단을 하지 않는다.
그러나 인간의 지식이라는 것은
분명히 도덕적·윤리적 판단을 전제로 하고 있다’고 주장했다.
김대식 교수는
프레시안과의 인터뷰에서
상기의 칼럼을 인용하면서
촘스키의 교과서로 언어학을 배운 사람으로
개인적으로 존경하고 좋아하는 감정과
연구자 대 연구자로 주장하는 바에 대한
내용은 분리해서 봐야 한다고 강조하면서
두 가지를 문제점을 지적했다.
첫째, 기계는
인간의 문장을 이해하는 것이 아니다.
인간의 언어 지도에서
가장 높은 확률의 답을 찾아 제시하는 것이다.
둘째, 지적재산권 문제와 관련해
인간이 만들어 놓은 문장을 재조합하는 것이 아니라
그 문장을 바탕으로 새로운 추론이 가능하다.
20세기 언어학의 결론은 언어를 습득하는 데는
문법 학습이 전제되거나 인간처럼 선천적으로
언어 획득 장치(LAD)가 있어야 한다는 것인데
인간은 챗GPT에게 문법을 가르쳐준 적이 없다.
문법뿐만 아니라 계산도 코딩도 가르쳐준 적이 없다.
즉, 챗GPT에게는
창발성(Emergent Property)이 있다는 것이다.
기계를 만들 때 기계의 능력이
인간보다 뛰어나다는 것은 본질적인 문제가 아니다.
망치는 인간의 주먹보다 힘이 세고
자동차는 당연히 인간보다 빠르다.
도구나 기계가 인간보다 세고 빠른 것은 문제가 되지 않는다.
왜? 망치를 쥐고 있는 사람,
운전대를 잡고 있는 사람은 여전히 인간이기 때문이다.
결국 우리가 AI 같은 기계를 만들 때
제일 중요한 질문은 두 가지다.
누가 이 기술을 제어하는가와 같은 컨트롤 문제와
누가 이 기술이 주는 이득을 가지고 가느냐와 같은 분배의 문제.
이런 관점에서
AI와 관련한 토론이 빨리 도입해야 한다라거나
막아야 한다라는 식으로만 진행되는 것은
제대로 된 논의가 이뤄지지 않고 있다고 볼 수 있다.
AI와 관련해 항상 나오는 질문이
인간의 능력이 대체되는 것 아니냐?
일자리가 없어지는 것 아니냐?라는 것인데
이 역시 핵심이 아니다.
오히려
AI가 가져다주는 생산성의 증가에 따른 혜택을
기업이 다 가져가는 것은 문제다라거나
인간과 기계가 노동력을 어떻게 나누면
인간이 노동을 덜 하면서도
존엄을 지킬 수 있을까 같은 것이라는 것이다.
자동차가 일상에 들어온 이후
자신에게 필요한 상황이 되면 제일 먼저 하는 행동이 있다.
바로 운전면허증을 획득하는 일이다.
그리고는 직접 운전을 해봐야 이 기계를 어떻게 하면
최적화할 수 있는지 답을 얻을 수 있다.
AI도 비슷하다.
포털사이트 검색 기능이나 택배 물류 시스템 등
이미 우리 생활에 깊숙이 들어와 있지만
챗GPT처럼 직접 활용이 가능한 생성형AI가 나온 만큼
자주 활용해 어떻게 하면 최적화할 수 있는지 답을 찾아야 한다.
챗GPT가 세상에 등장한 지 4개월.
이후 AI 기술의 발전은 숨가쁠 만큼 빠르게 진행되고 있다.
오픈AI는 챗GPT보다 똑똑해진 GPT-4를 세상에 선보였고
마이크로소프트(MS)와 구글은 빠르게 발전하고 있는 AI를 활용해
우리의 일상을 바꾸기 위해 분주하게 움직이고 있다.
MS는 뉴빙을, 구글은 바드를 출시하며 AI 챗봇 경쟁이 본격화되고 있다.
오픈AI 챗GPT vs MS 빙 vs 구글 바드, 가장 똑똑한 AI는?
AI 전쟁이 본격화되면서
MS와 구글 등 글로벌 빅테크 기업들의 움직임도 빨라지고 있다.
챗GPT로 세상을 놀라게 했던 오픈AI는 챗GPT 공개 이후
불과 4개월 만인 3월 14일 GPT4.0을 선보이며 다시 한 번 충격을 줬다.
GPT-4는 GPT-3.5에 기반한 챗GPT의 업그레이드 버전이라고 할 수 있다.
텍스트로만 대화를 주고받을 수 있던 챗GPT와 비교해
그림으로도 대화를 나누는 게 가능해진 것이다.
챗GPT 이후 MS와 구글의 AI 속도전 또한 제대로 불이 붙었다.
2월 7일 MS가 미 워싱턴 주 레이먼드에서 언론 행사를 통해
챗GPT와 같은 생성형 AI를 탑재한 뉴 빙을 공개한 데 이어
2월 8일 구글이 챗GPT의 대항마 격이라고 할 수 있는 바드를 선보였다.
GPT-4를 탑재한 MS의 뉴 빙은
지난 2월 말 플레이스토어와 앱스토어에
미리 보기 버전으로 출시된 뒤 일반에게 공개됐다.
한 달여 만에 하루 활성 사용자 수(DAU)가 1억 명을 돌파할 만큼
새로운 전성기를 맞이하고 있다.
한경비즈니스의 분석에 따르면
MS의 빙은 오픈AI의 GPT 모델에 기반하고 있지만
챗GPT와는 다르다.
GPT-3.5에 기반한 챗GPT와 비교해
빙은 GPT-4를 탑재하고 있다는 점도 차이가 있지만
질문에 답변을 내놓는 스타일이나 방식 면에서도 큰 차이를 보인다.
현재 챗GPT는 오픈AI의 웹 사이트를 접속할 수 있다.
오픈AI에 계정을 생성하기만 하면
누구나 무료료 챗GPT를 이용할 수 있다.
3월 10일 유료 버전인 챗GPT 플러스를 선보이기도 했다.
최근에는 사무용 메신저인 슬랙과 디스코드 등에도
연동하는 등 활용 범위를 확대해 나가는 중이다.
MS의 빙<출처>연합뉴스/한경비즈니스
MS의 빙은 현재 MS의 검색 엔진인 빙이 지원되는
모든 장치에서 사용할 수 있다.
MS 빙 화면의 위쪽에 채팅을 누르고 들어가면
누구나 이용할 수 있다.
이 밖에 MS의 화상 통화 플랫폼 스카이프와
웹 브라우저인 엣지에도 통합돼 구동되고 있다.
2021년 데이터까지만 학습이 된 챗GPT와 비교해
빙은 훨씬 최신 자료까지 답변으로 보여준다.
1시간 전까지의 데이터를 반영하는 것으로 알려져 있다.
대한민국의 대통령을 묻는 질문에
챗GPT는 문재인 대통령이라는 답을 내놓지만
MS의 빙은 윤석열 대통령이라고 알려준다.
둘의 가장 큰 차이점은 출처의 표시다.
챗GPT는 학습한 자료들을 종합해 답을 내놓는 과정에서
그 출처를 알려주지 않는다.
이와 비교해 빙은 훨씬 더 짧고 간결한 문장으로 답변을 제시하면서
이와 함께 그 답변이 포함돼 있는 문서들의 출처를 표시해 준다.
챗GPT와 같은 생성형 AI가
여전히 오류가 많은 답변을 내놓을 수 있다는 것을 감안하면
MS의 빙이 답변의 오류를 확인하고 따져보기에는
훨씬 더 안정적인 시스템을 갖추고 있다고 볼 수 있다.
챗GPT는 어떤 질문에도 직설적이고 거침없는 답을 내놓는 반면
빙은 사용자의 질문에 보다 중립적이고 윤리적인 답변을 내놓기 위해
조심하는 모습을 보이기도 한다.
예를 들어 자기소개서를 써 달라는 요청에 챗GPT는 답을 해 주지만
빙은 “자기소개서는 개인적인 글이기 때문에
스스로 작성해야 한다”는 답을 내놓는 식이다.
구글은 2월 8일 공개 시연에서
바드가 오답을 내놓는 등의 해프닝을 겪었다.
이후 여러 보완을 거쳐 3월 22일 미국과 영국을 중심으로
AI 챗봇 바드의 시범 서비스를 시작한다고 밝혔다.
MS에 한 발 늦었지만 본격적인 반격 태세를 갖추고 있다.
바드는 현재 미국과 영국 외의 장소에서는 사용하기 어렵다.
이 때문에 자세한 성능에 대해서는 공개된 바가 없다.
다만 뉴욕타임스나 워싱턴포스트 등에
이미 자세한 후기가 상당수 공개돼 있다.
국내에서는 VPN을 활용해 바드를 써 본
경험을 공유하는 유튜버들도 꽤 있다.
구글의 람다(LaMDA) 언어 모델에 기반을 두고 있는
바드는 답변의 수준이나 방식 등에서 챗GPT에 적용된
GPT3.5 모델과 유사한 수준을 갖추고 있는 것으로 보인다.
다만 구글에 따르면 현재 바드에 적용되고 있는
람다는 일종의 경량 버전인데
이후 더 똑똑한 버전으로 업그레이드될 것이라고 강조하고 있다.
바드는 세 AI 챗봇 중에서도 가장 조심성이 많다.
질문을 입력할 수 있는 텍스트 프롬프트 필드 위에
“저는 창의적이고 도움이 되는 협력자인 바드입니다.
하지만 저는 한계가 있고 항상 정답을 맞히지는 않습니다.
여러분의 피드백이 저의 개선에 도움이 될 것입니다”는
환영 메시지가 띄워져 있다.
한 가지 질문에 한 가지 답변을 내놓는
챗GPT나 빙과 비교해
사용자가 질문에 대한 답을 선택할 수 있도록
여러 가지의 초안을 제공한다는 것도 큰 차이점이다.
각 대화 버블의 왼쪽 상단에 다른 초안 보기를 뒀다.
이를 통해 사용자가 AI가 내놓는 답 외에도
스스로 답변을 비교해 보고
자신만의 콘텐츠를 생성해 나갈 수 있도록 한 것이다.
AI와 인간의 협업에 보다 중점을 둔 방식이다.
정보 출처를 표시하고 있는 빙과 마찬가지로 바드 역시
화면의 하단부에
검색 결과 페이지로 이동할 수 있는 링크를 표시하고 있다.
대화는 사람들이 업무를 처리하고
상호 작용할 때 가장 기본이 되는 수단이다.
사람과 대화를 주고받을 수 있는 생성형 AI의 등장이
특히 남다른 의미를 갖는 이유다.
앞으로 10~20년간 AI는
인류가 일하는 방식을 완전히 바꿔 놓을 것으로 예측된다.
누구나 퓰리처상 수준의 기사,
아티스트 수준의 그림,
그리고 할리우드 스타일 특수효과가 추가된
동영상을 만들 수 있는 진정한 의미에서의
1인 크리에이터 시대가 멀지 않아 보인다.
AI 챗봇은 지적능력을 자동화한다.
인간의 능력을 대체할 수는 없지만
챗봇를 활용하지 않으면
창의적인 작업을 하는 사람들이
경쟁력을 상실해 도태될 수 있다.
골치아픈 생성과정은 AI가 대신하고
AI에게 일을 시키는 질문과
AI가 처리한 결과물을 선택하는 것은
인간의 몫이 된다.
그래서
AI 챗봇를 제대로 활용하려면
질문하는 능력을 키워야 한다.
The golden age of AI : Why ChatGPT is just the start
(AI 황금시대 ; 챗GPT가 시작일 뿐인 이유)
3월 24일자 세계경제포럼(WEF)의 칼럼 제목으로
MS의 창업주 빌 게이츠의 승부수가 통한 것으로
현재로는 관측된다.
인공 지능은
휴대폰과 인터넷만큼이나 혁신적인 기술이다.
다음은 빌 게이츠가 최근 블로그에 올린
‘The Age of AI has begun’이라는 칼럼의 일부이다.
“인공 지능은 휴대폰과 인터넷만큼이나 혁신적인 기술입니다.
제 일생 동안 혁명적이라고 생각한 기술 시연을 두 번이나 보았습니다.
첫 번째는 1980년에 Windows를 비롯한 모든 최신 운영 체제의 전신인 그래픽 사용자 인터페이스를 소개받았을 때였습니다. 데모를 보여준 찰스 시모니라는 뛰어난 프로그래머와 함께 앉아서 사용자 친화적인 컴퓨팅 접근 방식을 통해 할 수 있는 모든 일에 대해 즉시 브레인스토밍을 시작했죠. Charles는 결국 Microsoft에 입사했고, Windows는 Microsoft의 중추가 되었으며, 그 데모 이후 우리가 했던 생각은 향후 15년 동안 회사의 의제를 설정하는 데 도움이 되었습니다.
두 번째 큰 놀라움은 바로 작년에 일어났습니다. 저는 2016년부터 OpenAI 팀과 만나고 있었고, 그들의 꾸준한 발전에 깊은 인상을 받았습니다. 2022년 중반, 저는 그들의 성과가 너무 흥미로워서 인공지능이 대학 수학능력시험(AP)에 합격할 수 있도록 훈련시키라는 과제를 제시했습니다. 특별히 훈련되지 않은 질문에 답할 수 있도록 만드는 것이었습니다. (AP 바이오를 선택한 이유는 이 시험이 단순한 과학적 사실의 반복이 아니라 생물학에 대해 비판적으로 생각하도록 요구하기 때문입니다.) 그렇게 할 수 있다면 진정한 돌파구를 마련한 것입니다.”
…(하략)…
<출처>https://www.gatesnotes.com
MS의 빙, 구글의 바드와 같은 AI 챗GPT이
검색 시장을 노리고 있다면
AI 경쟁의 진짜 승부는 사무실에서 결판이 날 가능성이 높다.
인공 지능(人工知能)이란
인간의 지능이 가지는 학습, 추리, 적응, 논증 따위의 기능을 갖춘
컴퓨터 시스템으로,
67년전인 1956년 미국 다트머스 컨퍼런스에서 처음 사용됐다.
<과학저술가 한재 신충우>