선데이 모닝 키플랫폼

"韓, 충분한 역량 갖춰…우리만의 AI 규제 고민해야"

[선데이 모닝 키플랫폼] 인터뷰 - 윤혜선 한양대학교 법학전문대학원 교수

김상희 | 2024.09.22 06:00

편집자주 |  머니투데이 지식·학습 콘텐츠 브랜드 키플랫폼(K.E.Y. PLATFORM)이 새로운 한주를 준비하며 깊이 있는 지식과 정보를 찾는 분들을 위해 마련한 일요일 아침의 지식충전소 <선데이 모닝 키플랫폼>
image
윤혜선 한양대학교 법학전문대학원 교수/사진제공=윤혜선 교수
SF의 거장 아이작 아시모프는 '로봇 3원칙'을 통해 고도화된 기술이 인간에게 위해가 되지 않도록 하는 개발의 방향성을 제시했다. 로봇 3원칙은 △로봇은 인간에게 해를 가하거나 혹은 행동을 하지 않음으로써 인간에게 해를 끼치지 않는다 △로봇은 첫 번째 원칙에 위배되지 않는 한 인간이 내리는 명령에 복종해야 한다 △로봇은 첫 번째와 두 번째 원칙을 위배하지 않는 선에서 로봇 자신의 존재를 보호해야 한다는 내용을 담았다.

챗GPT 등장 이후 AI(인공지능)가 빠르게 우리 삶 속에 들어오면서 또 한 번 강력한 기술이 인간의 삶을 위협하지 않을까 하는 우려가 커지고 있다. 실제로 가짜 뉴스, 딥페이크 등의 문제는 현실이 됐으며, AI를 통한 불공정 경쟁, 일자리 문제 등도 중요한 사안으로 부상했다.

머니투데이는 규제법 전문가인 윤혜선 한양대학교 법학전문대학원 교수를 만나 AI 생태계의 건강한 발전 방향에 대해 들어봤다.

다음은 일문일답.

-가짜 뉴스, 딥페이크 등 AI로 인한 문제들이 현실화하고 있다. 잘못된 AI 사용으로 인한 가장 심각한 문제는 무엇이라고 생각하나?
▶특정 문제를 짚어 말하기 어려운 상황이다. AI는 모든 영역에 적용되고 융합돼 활용될 텐데, 현 단계에서는 아직 어떤 문제가 있을지 모르기 때문이다. 가짜 뉴스나 딥페이크는 실제로 피해자들이 보이니 주목하게 된다. 하지만 넓게 보면 피해를 받고 있지만 바로 드러나지 않는 경우도 많다. 피해를 입으면서도 입는지조차 모른 채 발생하는 것들이 있을 수 있다. 이런 부분들은 알게 모르게 진행이 되기 때문에 대응이 어렵다. 그래서 주요국 정부 등이 모니터링을 하며 가급적 늦지 않게 선제적으로 대응할 수 있도록 노력하는 것으로 보인다.

-유럽이 선제적으로 AI 규제법을 통과시켰다. 이는 AI 기술에 대한 부작용을 최소화하려는 것도 있지만, 미국의 거대 테크 기업에 맞서 유럽의 AI 산업을 보호하려는 목적도 크다. 우리는 AI 규제를 어떻게 만들어야 하나?
▶AI에 있어 오픈AI, 구글, 메타 등 글로벌 빅테크와 다른 기업들의 기술 격차가 크다. 따라서 이들을 대상으로 하려면 명확하게 어느 성능 이상의 모델을 쓴 것에 대해서는 규제를 하겠다는 방식으로 접근할 수 있다. 다만 이 경우도 그걸 가져다 잘 활용해서 새로운 가치를 만드는 우리 기업에 대해서는 어떻게 할 것인지에 대한 문제가 생길 수 있다. 복잡한 문제다.
따라서 규제 대상을 아주 정교하게 설계해야 한다. 글로벌 빅테크로 인해 국내 AI 산업이 무너지는 것을 방지하면서도, 겉으로는 그렇게 보이지 않도록 하는 게 필요하다. 유럽의 AI 규제도 마찬가지다. 그냥 봐서는 꼭 빅테크를 겨냥했다고 말하기도 어렵다. 미국 기업만 적용하는 게 아니라 유럽 기업의 기술도 위험하다 싶으면 규제를 하는 것이기 때문이다. 그저 빅테크들의 기술이 더 앞서는 만큼 더 큰 적용 대상이 될 뿐이다. 그렇기 때문에 규제의 명분이 생긴다.

-빅테크 기업이 AI 기술로 더 소비자에게 최적화한 제품과 서비스를 내놓는 등 비즈니스 측면의 불공정한 경쟁 문제를 우려하는 목소리도 있다.
▶앞으로 점점 더 중요해질 문제다. 지금은 안전, 위험성으로 AI를 규제하지만, 앞으로는 많은 AI 규제가 경쟁법, 공정거래 쪽으로 수렴되지 않을까 생각한다. 현재 사례가 축적되지 않은 상황에서 정확히 말하긴 어렵다. 경제적 효과 측면에서 바라봐야 하는 부분이 있고, 규범적, 법적인 측면에서 접근해야 하는 부분도 있다. 다양한 가치와 시각이 혼재해있는 것이다. 어떤 측면에서는 불공정이다 비판할 수 있지만, 또 다른 쪽에서는 소비자 후생 등 시장에 기여했다고 볼 수도 있는 문제다. AI 기술 발달과 서비스는 순식간에 이뤄지고 파급효과도 크기 때문에 어떤 관점에서 접근할지 더 논의하고 지혜를 모으며 방법론을 찾아가야 한다.

-혁신을 위해서는 사전적 규제보다 사후적 규제를 해야 한다는 주장도 있다.
▶전통적 방식으로 허가를 받거나 안전하다고 확인된 것만 하도록 하는 사전 규제 도입은 쉽지 않다. 그렇다고 사후 규제가 답이냐 하면 그것도 아니다. 우리나라는 경제 개발 과정에서 강력한 사전 규제로 시장에 들어올 기업의 옥석을 가리고, 검증을 거친 기업에 대해서는 피해가 발생했을 때 책임을 덜 지웠다. 그것이 효과적이기 때문이다. 따라서 상대적으로 사후 규제가 약하고, 민사 소송에서의 배상 범위가 적었다. 그간 징벌적 손해배상이 없었던 것도 같은 맥락이다. 이렇게 사전 규제로 경제와 사회 성장을 이끌어 와서 정서적인 부분에서도 사후 규제가 잘 받아들여지지 않는다. 사후 규제를 해야 한다는 건 미국처럼 하자는 건데, 그렇다면 자유를 주는 만큼 책임을 질 수 있는 시스템을 가지고 있나 생각해 봐야 한다. 미국은 피해가 발생하면 소송으로 간다. 소송이 정답은 아니지만 한 가지 장점은 많은 경우 데이터에 근거해 싸운다는 점이다. 입증을 해야 하기 때문이다. 소송에서 지면 기업이 배상을 해야 하고 악의적이고 부주의한 경우에는 징벌적인 부분이 굉장히 강력해 이게 사실상 규제 효과를 나타낸다.
결국 규제를 어떻게 할 거냐가 문제인데, 규제가 절대적 안전망은 아니다. 규제는 법이고 법은 시대를 사는 관할 구역, 즉 국가나 지자체의 구성원들이 원하는 것을 하는 것이다. 사전 규제나 사후 규제냐 어떤 것이 맞냐가 아니라 양쪽의 얘기를 다 듣고 중간 지점 어딘서가 타협점이 만들어져야 한다.

-정부 규제도 중요하지만 기술 발달의 속도를 따라가지 못할 수도 있다. 따라서 업계의 자율 규제도 중요할 것 같다.
▶온전한 형태의 자율 규제는 어렵다고 본다. 기업 문제라기보다는 현재 우리 환경의 영향이 크다. 우리는 개인정보보호법 등 너무 강력한 규제 체제가 있어 AI 개발이 어려운 구조다. 단적으로 AI 개발에는 데이터가 필수인데 데이터 수집이 쉽지 않다. 그만큼 개발에 비용이 많이 든다. 심지어 개발자 몸값도 천정부지로 올랐다. 이러한 상황에서 AI 개발을 하고 수익도 내야 하는데 자율적으로 규제를 만들어 지킬 수 있는 기업이 많을까 생각해 봐야 한다. 기업의 선의에 기대야 하는 상황인데 쉽지 않을 것 같다.
원론적으로는 사고나 문제 발생 시 행정처분에 대해 감면, 면책을 하거나, 소송에서도 마찬가지로 참작 사유가 받아들여지는 방식으로 자율 규제를 유도할 수 있다. 또 잘 할 경우 세제 혜택 등의 제도적 인센티브도 가능하다. 정부가 적정한 수준의 규제법을 만들고, 규제 내용을 지침적이고 원칙적인 것으로 하되 이행하는 방식에 있어서는 기업에 자율성을 주고 신뢰하는 방향으로 가는 것, 그게 성공적인 자율 규제의 방향이 아닐까 생각한다.

-혁신 저해 등의 부작용은 최소화하면서 국내 AI 산업을 발전시킬 수 있는 규제의 방향은 무엇인가?
▶규제를 할 때 관점과 가치관이 매우 중요하다. 철학 같은 게 그 이면에 바탕이 돼야 한다. 결국 AI가 미래를 여는 새로운 문이라 한다면, 그 미래로 가기 전에 뭘 할지, 어떤 관점으로 볼지 고민해야 한다. 펼쳐지지 않은 미래에 무슨 일이 있을지 모르지만 현재의 상황에 휩쓸려 조각조각 난 방편만 만들지 않도록 국가 차원에서 연구해야 한다.
그리고 미국 등 AI 선도국가가 하는 것을 지켜보는 것도 좋지만 우리나라에 가장 좋은 것은 뭘까 먼저 생각해 보는 게 필요하다. 우리도 기술이나 사회적으로 건설적인 논의를 할 역량이 있다.
또 하나 강조하고 싶은 것은 AI로 인해 발생한 문제에 대해 현재는 안전성, 노동시장에 미치는 영향 쪽으로 초점이 맞춰져 있는데, 보안을 더 들여다봤으면 한다. 보안이 점점 중요해지고 있고, 국가 안보 차원에서도 중요하다. 실제로 AI 규제 트렌드가 보안이 중요시되고 있다. 이런 부분에 대해 논의가 이뤄지고 국민들도 관심을 가져야 한다.