상세 컨텐츠

본문 제목

인공지능, 맹신하지는 말자

About AI

by miracleai 2023. 11. 14. 10:46

본문

반응형

인공지능, 맹신하지는 말자

 

크리스토퍼 놀란 감독의 영화 ‘오펜하이머’에[서 주인공 오펜하이머와 대립하는 인물 중 하나가 에드워드 텔러다. 오펜하이머가 ‘원자폭탄의 아버지’라고 불리는 것처럼 텔러는 ‘수소폭탄의 아버지’라고 불린다. 이 둘은 2차 대전이 끝난 후 크게 대립을 하는데, 이유는 오펜하이머가 핵을 억제하고 확산을 막아야 한다고 주장한 반면 텔러는 수소폭탄 개발했고, 더 강한 핵무기를 가져야 한다고 주장했다. 게다가 텔러는 항구 등 건성현장에서 폭파를 할 때 다이너마이트 대신 핵폭탄을 사용해야 된다고 하는 등 핵 만능론자였다. 결과적으로 건설 현장에 핵이 쓰인 적은 없지만, 핵이 만능이 아니라는 것을 보여줬다.

 

이것은 인공지능도 마찬가지다. 인공지능이 우리 생활에 많은 부분에서 도구로 사용될 수는 있지만 결코 만능이 될 수는 없다. 특히 주변에서 글을 쓸 때 ChatGPT를 사용해 보라는 말을 많이 듣는데, 사실 글을 쓸 때 ChatGPT의 도움을 받을 수는 있다. 하지만 ChatGPT가 쓴 글을 많이 읽어봤다면 느끼겠지만 와 닿지 않는 부분이 있다. 이 말은 글로 상대를 이해시키거나 설득하기에는 부족하다는 것이다. 

 

반응형

 

글에는 글을 쓴 사람의 경험과 생각, 의견 등이 담겨 있다. 이것이 상대를 이해시키거나 설득할 수 있는 요소다, 반면 인공지능은 내 경험, 생각, 의견 등을 담을 수 없다. 그래서 글을 쓸 때 많은 부분 수정을 하는 것이다. 이 말은 인공지능의 도움으로 글 쓰는 시간을 단축시킬 수는 있지만 세밀한 부분은 직접 해야 된다는 것이다.

 

결정적으로 인공지능을 맹신하지 말아야 하는 이유는 바로 저장된 데이터가 검증된 것인지 아닌지 판단하기가 어렵다는 것이다. 검증되지 않은 데이터를 바탕으로 글을 쓴다면 오류가 생길 확률이 높아져 문제가 생길 수 있다. 상대를 이해시키고 설득하는 것도 검증된 데이터가 바탕이 되어야 한다. 우리가 상대에게 자료를 보여주는 것도 이런 이유에서다. 또한 인공지능은 여전히 인간의 언어를 이해하는데 한계가 있다. 인간처럼 신조어를 창조하지도 못하고 다의어나 ‘거시기’, ‘적당히’ 같은 기준이 불분명한 언어는 이해할 수 없다. 이 외에도 시대에 따라서 그 의미가 변하는 언어의 이해도가 떨어진다. 인간은 이런 부분을 앞뒤 문장의 흐름을 파악해서 이해하는 것이 가능하지만 인공지능은 불가능하다.

 

이처럼 인공지능은 여러 부분에서 인간이 할 수 있는 일을 하지 못하는 사례가 있다. 여기에는 인간처럼 다양성이 존재하지 않고, 판단을 하지 못하기 때문이다. 인간은 다양성이 있기에 개개인의 생각이 다 다르고, 판단을 하기에 이것이 검증된 것인지 아닌지를 판단한다. 이 과정을 통해 상대를 이해시키거나 설득하는 것이 가능하다. 반면 인공지능은 이런 것을 할 수 없다. 바로 이것이 인공지능은 맹신하지 말아야 하는 이유이기도 하다.

 

반응형

관련글 더보기