구글 AI

인공지능은 오늘날 다양한 분야의 혁신을 위해 필수적인 기술이 되고 있다. 구글과 앤트로픽은 새로운 생성형 AI 기술 개발을 추진하며 이 업계를 선도하는 회사로 입지를 굳히고 있다. 하지만 그 과정에는 다양한 장애물이 있다.

대표적인 장애물로는 인공지능이 종종 저지르는 실수와 민감한 정보 관리, 그리고 저작권 문제가 있다.

이는 거대 테크 기업들이 인공지능을 발전시키는 방식뿐만 아니라, 이러한 문제를 어떻게 다룰지에 대한 의문의 목소리를 높이게 한다. 특히 많은 기업들이 이 기술을 점점 이용하게 되면서, 인공지능 사용과 그 한계를 이해하는 것 사이의 올바른 균형을 이루는 것이 오늘날 중요한 사안으로 자리 잡고 있다

인공지능의 정확성 문제

캘리포니아 멘로파크에서 개최된 WSJ CIO 네트워크 서밋에서, 구글과 앤트로픽은 자신의 AI 시스템이 가끔 잘못된 정보를 자신 있게 제시하는 오류가 있음을 인정했다. 이러한 오류는 업계에서 “할루시네이션”이라고 부른다. 그리고 이것은 유저에게 해당 정보가 잘못된 것일 수 있다고 알리는 것보다 더 나쁘다.

AI 할루시네이션의 유명 사례 중 하나는 한 변호사가 법원에서 실수로 챗GPT가 만든 가짜 파일을 제출한 것이 있다. 물론 해당 변호사는 상당한 곤욕을 치러야 했다.

앤트로픽의 제러드 카플란은 이러한 AI 오류 사례를 줄이기 위한 방법을 개발하고 있다고 밝혔다. 그것은 인공지능이 충분한 정보를 확보하지 못했을 때 이를 인정하도록 훈련하는 것이며, “모르겠습니다”라고 말할 수 있도록 가르치는 것이다. 물론 이것이 본질적인 문제 해결은 아니겠지만, 그래도 자신 있게 오류를 저지르는 것보다는 나을 것이다.

하지만 카플란은 이 방식의 잠재적 문제를 언급했다. 그는 AI 모델이 실수를 피하기 위해 지나치게 신중하도록 훈련될 경우, 너무 소극적으로 행동하여 인공지능의 유용성이 훼손될 수 있다고 밝혔다.

데이터 사용 개선 및 훈련

그들은 또한 다른 문제도 다루어야 한다. 이를 테면 모델 훈련의 효율 개선과 훈련 자료 내의 저작권 또는 민감한 정보를 다루는 문제가 있다. 하지만 아직까지 이러한 문제에 대한 시원한 해결책은 떠오르지 않고 있다.

카플란은 만약 AI 회사에게 훈련 데이터에서 특정 콘텐츠를 배제하라고 요청한다면, 이를 위해 할 수 있는 간단한 방법은 없다고 설명했다.

현재까지 AI 알고리즘 훈련 과정에서 저작권 위반에 관한 몇 가지 소송 사례가 발생했다. 만약 AI 회사가 이 중대한 소송에서 하나라도 패소한다면, 이는 이 기술의 실존적인 위협으로 이어질 수 있을 것이다. 또한 저작권에 위배되지 않는 충분한 데이터 세트를 확보하는 것 또한 굉장히 어려울 것이다.

이와 관련하여 대표적인 소송 사례가 있다. 바로 뉴욕타임스가 오픈AI와 마이크로소프트를 상대로 제기한 소송이다. 타임스는 두 테크 기업이 AI 시스템을 개선하기 위해, 수백만 건의 기사를 허락 없이 불법적으로 복사했다고 고소했다.

문제의 시스템에는 챗GPT와 코파일럿이 있으며, 이들은 현재 독자와 광고비를 놓고 타임스와 경쟁하고 있다. 이 소송은 오픈AI와 마이크로소프트가 뉴스 기사의 상세한 내용을 사용하여, 타임스의 노력에서 아무 대가 없이 부당하게 이익을 보았음을 시사한다.

또 다른 주요 소송으로는 작가 집단이 오픈AI와 메타를 대상으로 제기한 것이 있다. 이들은 저작권 위반을 그 이유로 들었으며, 여기에는 유명 작가 세라 실버먼도 포함된다.

이들은 이 기업이 많은 작가들의 창작물을 허락받거나 대가를 지불하지 않고 사용했다고 주장했다.

이 소송은 챗GPT가 요청에 따라 저작권 작품에 대한 상세한 시나리오를 제공했던 사례를 포함했으며, 이는 AI가 해당 작품을 기반으로 훈련된 가능성을 나타낸다. 세라 실버먼의 경우, 그녀의 작품 “더 베드웨터”에 대해 직접 언급했으며, 또한 다른 작품들도 불법 출처에서 동의 없이 활용되었다고 한다.

인공지능 신뢰와 혁신 사이의 균형

앤트로픽과 구글은 이러한 문제를 다루기 위해 노력했지만, 다른 기업들은 민감성 높은 데이터와 관련하여 AI 시스템을 완벽히 신뢰하기가 꺼림칙하다고 한다. 기업 리더들은 AI 투자를 정당화하기 위해, 이 기술이 안정적이고 현실적이라는 확신이 필요하다.

실제로 이번 서밋동안, 금융 서비스 회사의 한 임원진은 규제가 심하거나 민감한 환경에서 AI 서비스를 제공하기 위한 전략에 대해 질문했다.

데이터 민감성이 높은 업계에서 AI를 신뢰하는 것은 상당한 도전을 의미한다. 특히 환자 정보를 비공개로 보호하고, 정확한 진료가 요구되는 의료 분야에서 중요하다. 금융의 경우, 정확한 데이터 및 예측은 금융 시장 및 투자자 선택에 막대한 영향을 미칠 수 있다. 또한 사건 데이터 보호와 개인정보가 매우 중요한 법률 서비스 분야도 마찬가지다.

이들은 모두 데이터 보안 및 규제 준수의 필요성이 매우 높은 분야다. 따라서 인공지능에 의한 어떤 실수나 데이터 오용은 발생해서는 안되며, 이는 엄청난 법적 문제와 재정 손실로 이어지고, 회사 명성에도 타격을 입히게 될 것이다.

이 위험은 특히 AI 시스템이 잘못되고 편향적이거나 민감한 정보에서 결과를 도출할 수 있는 가능성으로 인해 더욱 높아진다. 그리고 중요한 결정을 위해 이 기술을 사용하는 것이 과연 안전하고 윤리적인지에 대한 우려로 이어진다.

또한 독점적인 정보 또는 지적 자산을 다루는 산업들도 고려해야 한다. 예를 들어, 특정 기술 분야는 경쟁력을 위해 혁신과 영업비밀에 의존하는 경우가 많다. 한편 엔터테인먼트 산업은 저작권 문제에 대해 고려해야 할 것이다.

이는 단순히 무단 접속을 방지하는 것으로 해결될 수 없다. 여기에는 AI 시스템이 민감한 정보를 어떻게 다루고 사용하는지에 대한 분명한 신뢰가 필요하며, 이를 모두가 납득할 수 있어야 할 것이다.

기존 문제로 여전히 난감한 인공지능

인공지능이 다양한 분야에서 활용됨에 따라, 구글과 앤트로픽 같은 회사는 이 기술 사용에서 떠오르는 큰 문제들을 직면하고 있다. 이들은 할루시네이션이라는 오류를 줄이고, 민감한 데이터 관리와 저작권 문제를 책임감 있게 다루기 위해 노력하고 있다.

하지만 현실은 그들의 AI 모델을 아직 완전히 신뢰할 수 없다는 것이다. 여전히 중요하고 민감한 데이터 오용에서 발생할 수 있는 법적 문제, 재정 손실, 평판과 관련된 위험이 우려되고 있기 때문이다.

따라서 인공지능이 제공하는 광범위한 혜택과 현존하는 문제 사이의 올바른 균형이 필요하다. 이러한 과제를 해결하는 것은 효과적인 비즈니스 사용을 위해 필수적일 것이다.

관련 기사