딥러닝

ChatGPT가 못하는 것은?

miracleai 2023. 6. 23. 14:32
반응형

ChatGPT가 못하는 것은?

불완전한 존재인 인간이 만든 ChatGPT는 대화형 인공지능 모델로 한계점이 있고, 못 하는 것도 있다. ChatGPT가 못하는 것은 다음과 같은 것이 있다.

1. 개인적인 의견과 경험: ChatGPT는 개인적인 의견, 믿음 또는 경험을 가지고 있지 않다. 단지 학습된 패턴과 정보를 기반으로 응답만을 제공한다. 즉, 인간처럼 같은 경험을 하더라도 다른 느낌을 표현하는 것은 불가능하다. 또한 ‘8월 말 정동진에 가서 조용한 밤바다를 걸을 때 복잡한 마음도 정리되고 힐링도 된다’는 것과 같은 경험을 이야기해 줄 수 없다.

2. 독립적 추론: ChatGPT는 보기에는 그럴듯한 응답을 생성할 수 있지만 독립적인 추론 능력이나 비판적으로 생각할 수 있는 능력은 가지고 있지 않다. ChatGPT의 응답은 교육 데이터의 통계적 패턴과 상관관계를 기반으로 한다. 인간처럼 개인적인 의견과 그 의견에 대한 근거를 댈 수 없다. 게다가 인간처럼 경험을 바탕으로 한 추론은 불가능하다.

 

반응형


3. 스스로 정보 수집을 못한다: ChatGPT의 지식은 2021년까지 이용 가능한 데이터를 기반으로 한다. 교육 기간 이후에 발생한 최신 뉴스나 이벤트에 실시간으로 액세스할 수 없다. 그래서, 그것은 최근의 발전을 알지 못할 수도 있다. 이 말은 ChatGPT는 인간처럼 모르는 것이 있을 때 스스로 찾거나 다른 사람에게 물어보는 등의 활동을 할 수 없다는 것이다.

4. 맞춤형 조언 또는 전문적인 전문 지식: ChatGPT는 광범위한 주제에 대한 일반적인 정보를 제공할 수 있지만, 전문적인 조언의 대체물로 간주되어서는 안 된다. 개인 데이터나 특정 개별 컨텍스트에 액세스할 수 없으므로 응답은 권위적이기보다는 정보로 사용되어야 한다. 또한 인간처럼 조언을 요청한 사람에게 맞춤형 조언을 하는 것은 불가능하다. .

5. 정확성 또는 신뢰성 보장: ChatGPT가 정확하고 신뢰할 수 있는 정보를 제공하도록 교육하기 위해 노력해 왔지만, 여전히 부정확하거나 오해의 소지가 있는 응답을 생성할 수 있다. 즉,ChatGPT는 인간처럼 스스로 지식에 대한 검증을 하지 못한다. 따라서 인간처럼 어떤 지식이 검증된 지식인지 아닌지를 판단할 수 없다. 게다가 ChatGPT는 소위 말하는 가짜뉴스를 판별하는 능력도 떨어진다. 그래서 ChatGPT사용자는 신뢰할 수 있는 출처의 정보를 확인하고 비판적인 사고를 발휘해야 합니다.

이처럼 ChatGPT는 우리가 편리하게 사용하고, 일을 할 때 시간을 단축시켜주는 장점도 존재하지만 단점 또한 분명하게 존재한다. 그래서 ChatGPT를 사용할 때는 단점에 대해서 분명히 알고, 이를 내가 주도적으로 사용하는 지혜가 필요하다.

반응형