본문 바로가기
생활정보

인공지능 챗GPT가 미칠 부정적인 문제들

by beresford 2023. 2. 7.

챗GPT가 출시된 지  2개월 만에 사용자수 1억 명을 돌파하며 화제의 중심에 서 있지만 본격적인 도입에 앞서 그를 활용한 생산성 향상등 사회발전에 기여하는 긍정적인 요소와 더불어 부정적인 문제에 대한 우려의 시각도 점점 커지고 있습니다.  구글등 IT공룡들이 AI윤리의식을 고려하여 늦추어 온 생성형 인공지능의 출시가 비교적 자유로운 분위기의  스타트업이 쏘아 올린 공에 전 세계가 주목하고 있으며 또한 경쟁기업에서도 추이를 지켜보면서 제2, 제3의 챗GPT의 등장을 예고하고 있습니다. 개인들은 각자의 방식으로 인공지능을 어떻게 활용할지 시험해보고 있지만 생성형 AI의 범용화에 대한 우려와 예상되는 부정적인 문제도 만만치 않을 것으로 보입니다. 

긍정적인 요소

생성형 AI는 기초적인 대화 시뮬레이션은  물론이고 아이디어 도출, 논문작성, 작곡등 창의적인 업무 수행 및 프로그램 코딩, 고객상담 등 활용 분야가 무궁무진할 것으로 보입니다. 이런 생성형 AI 도입은 거의 모든 부문에서 생산성 향상이나 효율화로 사회발전에 기여하리라 기대되고 있습니다.

부정적인 요소

기존의 사회 규범이나 규제가 기술발전속도에 따라가지 못하면서 여기에서 오는 괘리에서 오는 우려의 시각이 많이 있습니다.

1. 사람 간의 상호작용 단절

전반적으로 AI에 대한 의존도가 높아지면 사람들이 기계와 의사 소통하는   많은 시간을 할애하고 다른 사람들과대화 등 상호 작용하는 시간이 줄어들기 때문에 사람간의 상호 작용  사회적 스킬 향상에 악영향을 줄 수 있습니다. 

청소년기의 어린 학생들은 또래 간의 대화나 선생님들과 대화보다는 AI와 대화에 더 익숙해지면 언어능력 저하, 공감능력부족, 창의성감소등으로 청소년들의 학교생활의 단절로 사회생활 발전에 악영향을 줄 가능성이 커졌습니다. 컴퓨터나 인터넷의 등장으로 청소년들의 대화가 부족한 상황을 이미 경험한 바가 있습니다.  최근 미국 뉴욕시는 모든 공립학교에서 챗GPT 접속을 막았다고 합니다. 학생들의 학업에 필요한 능력과 사고력에 부정적인 영향을 미친다는 이유에서 입니다.

2. 편향과 차별문제

AI 편향과 차별은 AI가 편향된 데이터로 학습 받으면 기존의 사회적 편향을 영구화할 있다는 우려가 존재합니다. 이로 인해 특정 그룹의 사람들에게 불공평하거나 편향된 결과가 발생할 수도 있습니다.

예를 들어, 안면 인식 기술은 이러한 시스템을 개발하는 사용된 학습 데이터가 대체로 피부가 밝은 남성에게 편향되어 있기 때문에 피부색이 어두운 사람, 여성 노인을 식별하는 정확도가 낮다는 비판을 받았습니다. 현행화되지 못한 과거의 데이터로 학습한 AI는 현실을 반영하지 못하여 그로 인한 편향과 차별이 여전히 존재할 수도 있습니다.

3. 책임소재 문제

AI 책임소재 문제 AI 시스템이 내린 결정과 행동에 대한 책임이 누구에게 있는지 결정하기 어렵다는 것을 의미합니다. AI 시스템은 자율적으로 작동하고 알고리즘과 데이터 기반으로 의사결정을 내리기 때문에 이러한 결정의 결과에 대해 누가 책임을 져야 하는지 명확하지 않을 있습니다.

예를 들어, 자율주행 자동차의 경우 충돌 사고가 발생하면 차량 제조업체, 소프트웨어 개발자 또는 운전자 누가 책임을 져야 하는지 판단하기 쉽지 않습니다. 또한 의료 진단이나 대출 결정을 내리는 AI 경우, AI의 잘못된 결정으로 피해를 입히면 그 책임이 누구에게 있는지 명확하지 않을 있습니다. 또한, 이러한 책임소재를 개인이나 조직에 부여하는 혼란과 어려움을 야기될  있으며 잠재적으로 법적 윤리적 문제로 이어질 있습니다.  

4. 프라이버시 문제

챗GPT에게 프라이버시의 노출에 대해서 의견을 물었더니 "나의 학습 과정과 내가 훈련받은 데이터는 개인이나 조직에 대한 특정 정보를 보유하지 못하도록 설계되었으며 개인 상호 작용에서 얻은 데이터를 저장하거나 보유하지 않습니다."라고 대답을 했습니다. 그렇지만  AI 시스템은 많은 양의 개인 데이터를 수집, 저장 처리하는 경우가 많기 때문에 악용이나 오용을 통해서 심각한 개인 정보 보호 문제가 발생할 있습니다.  

5. 기업비밀 노출

미 경제매체 비즈니스인사이더에 따르면  마이크로소프트는 최근 직원들이 업무 중 소프트웨어 코드와 같은 회사의 기밀 정보를 입력했다가 챗GPT가 이를 학습하고 다른 사용자에게 그 정보를 제공할 수 있다는 우려 때문에  회사의 기밀정보를 입력하지 말라고 경고했다고 하고, 또한 같은 이유로 아마존에서도 직원들에게 기밀정보를 챗GPT에 올리지 말라고 경고했다고 보도했습니다.

6. 저작권 및 여론조작 문제

사람이 쓴 글인지 AI가 쓴 글인지 판별하는 기능인 판별기를 챗GPT 개발사인 오픈AI가 출시했는데 정확도가 26%에 불과해서 구분이 거의 불가능하다고 합니다. AI를 통한 창작물이 사람이 한 것과 구분이 어렵게 되면서 창작물에 대한 신뢰성 저하와 표절 등 저작권 문제가 예상되고 있습니다. 또한, 대학에서는 챗GPT를 이용해 시험을 치거나 학위 논문을 작성하는 부작용도 나오고 있습니다. 또한, 여론을 형성하는 댓글문제에 있어서도 기존 댓글은 같은 내용을 복사하여 붙여 넣기 수준이었다면 AI는 사람처럼 자연스러운 댓글을 짧은 시간에 대량생산할 수 있어서 심각한 여론왜곡과 가짜뉴스를 확산시킬 것이라는 비판이 나오고 있습니다.  

7. 보안위협

해커가 AI를 활용하여 기존 시스템취약점을 분석하고 사이버 공격 프로그램을 개발하고 고도화하여 공격하는 보안위협이나 AI시스템이 잘못된 결정을 내리도록 입력데이터를 조작하여 적대적 공격을 하게 하는 등의 사이버 위협이 예상되고 있습니다.

마무리

챗GPT의 출현으로 범용적인 생성형 AIAI 시대가 본격적으로 도래하고 사람들의 생활에 많은 영향을 줄 것으로 예상하고 있습니다. 또한 그 반대로 기술의 발전속도에 비해 법률이나 규제가 미흡해서 여러 부작용이 우려되고 있습니다. 예상되는 문제점을 미리 짚어보고 대비하여 AI가 우리 생활에 유익한 방향으로 사용되기를 기대하면서 AI도입에 대한 부정적인 요소를 살펴보았습니다.  

댓글