[제953회] 인공지능 시대의 법, 제도, 윤리

등록일
2024.03.29
조회수
806
키워드
인공지능 제도 윤리 소비자
담당부서
경제교육기획팀

자막

[제953회] 인공지능 시대의 법, 제도, 윤리
(2024. 03. 22 (금), 가천대학교 법학과 최경진 교수)

(최경진 교수)

네 안녕하세요. 금요강좌에 이렇게 함께하게 돼서 굉장히 기쁘고요. 저는 오늘 여러분들께 인공지능 시대의 법과 제도, 윤리에 대해서 설명을 한번 드리도록 하겠습니다. 아마 최근에 모든 분야에서 가장 핫하게 다가오고 있는 키워드 몇 가지를 꼽으라고 하면, 아마 그중에 단연 최우선 순위에 인공지능이 있는 것 같습니다. 그래서 일반인뿐만 아니라 전문가분들에 이르기까지 인공지능이 도대체 나한테 어떤 영향을 미칠지, 그다음에 내가 속해 있는 그룹이나 또는 내가 속해 있는 국가나 또는 내가 속해 있는 전문 영역 분야에서, 지금 그리고 가까운 미래에 어떠한 영향이 있을까. 아마 다들 궁금하기도 하고 걱정되기도 하고 또 한편으로는 어떻게 대응해야 하지라고 하는 그런 숙제도 함께 아마 고민들을 많이 하고 있는 거 같습니다. 그래서 오늘은 제가 여러분들께 인공지능에 대해서 법 영역에서 어떻게 대응하고 있고, 또 정책적인 측면에서 우리나라뿐만 아니라 국제 사회는 어떻게 대응하고 있는지를 한번 설명드리도록 하겠습니다. 아무래도 오늘 참석하시는 분들의 몇 명이 제가 듣기로 상당히 다양한 분들이 계시다고 하기 때문에 여러분들 모두가 다 이해할 수 있는 정도의 수준에서 하지만 최근에 국제적으로 이루어지고 있는 그런 좀 약간 깊이 있는 논의까지 상세히 그리고 매우 자세하게 설명을 좀 드리도록 하겠습니다. 사실 법이라고 하면요, 여러분들이 법을 떠올릴 때 아마 가장 먼저 떠오르는 것 중에 하나가 보수적이다라는 생각이 떠오르실 거예요. 그쵸. 근데 저도 사실은 굉장히 앞서나가는 사람이라고 스스로 착각 속에 살지만 그러나 한편으로는 보수적일 수밖에 없습니다. 왜냐하면 법이라는게 과거에 일어난 사실을 또는 어떤 사건을 어떻게 해결할 것이냐를 고민하는데, 미래의 기준을 적용하는게 아니라 과거의 기준을 적용하거든요. 그러다 보니까 과거의 기준을 가지고 과거의 사건을 다루는 그런 영역이 법입니다. 그런데 이게 마침 인공지능이랑 함께 연계되다보니까. 인공지능은 사실 굉장히 미래적인 분야잖아요. 이 미래적인 분야에 대해서 법이 과연 뭘 할 수 있을까라는 고민이 계속 생겨날 수밖에 없습니다. 그래서 법을 하는 입장에서는 굉장히 곤혹스러운 것 중 하나가 아직 완전히 다가오지도 않은 이런 인공지능 시대를 대비해서 과연 법이란 또는 법을 하는 전문가들이 어떤 역할을 해야 하고 또 무엇을 할 수 있을지가 사실은 다른 어떤 분야보다 훨씬 더 고민되고 한편으로는 걱정하고 있는 사실입니다. 그래서 여러분들께 제가 오늘 드리는 말씀은 그런 우려, 법 분야에서 우려와 함께 우리가 어떻게 정말 치열하게 고민하고 있는지를 한번 공유하면서 동시에 첫 출발점으로서 여러분들께 질문 하나 드리고 싶은게 있어요. 제가 지금 말씀드린 이런 법 분야의 특수성을 고려해봤을 때, 우리가 논의의 대상으로 삼아야 되는 인공지능은 과연 무엇일까요? 사실은 인공지능 논의가 굉장히 활발하게 이루어지고 있는데요. 사람들마다 얘기할 때 얘기하는 인공지능의 수준이 다 다릅니다. 제가 인공지능 논의를 꽤 오래 했는데도 불구하고요, 사실 논의의 장에 들어가 보면 막상 한참 얘기하다 보면 저 사람하고 나하고 왜 이렇게 입장이 다르지? 하는 생각을 하게 되는데, 그 가장 중요한 차이점을 발생시키는 원인 중에 하나가 뭐냐하면 서로 생각하는 인공지능이 다른 거예요. 인공지능의 수준이. 그러다 보니까 법을 뭔가 만들거나 아니면 법적인 대응을 해야 되는데 또는 기존의 법을 적용을 해야 되는데, 생각하는 인공지능의 수준이 다르다 보니까 대상이 달라지면 답이 다를 수밖에 없잖아요. 그런데 그 대상이 되는 인공지능에 대한 어떤 사고의 정렬이 먼저 이루어져야 되는데, 문제는 현재 단계에서 우리 여기 계신 모든 분들의 생각도 아마 생각하는 인공지능의 수준이 다 다를 겁니다. 그러다 보니까 법 분야에서는 더더욱 어려운 문제가 생겨나게 됩니다. 그래서 첫 번째 사실은 질문과 함께 문제 의식을 함께 공유하고 싶은 거는 우리가 법과 제도와 윤리를 얘기할 때 그 대상이 되는 인공지능이 무엇인지에 대한 사고의 공통화 또는 일원화를 하지 않고서는 서로 다른 논의를 하고 있거나 아니면 영원히 서로 다른 곳을 보고 있기 때문에, 계속 평행선만 유지하면서 답을 찾지 못하는 문제가 생각납니다. 그래서 여러분들한테 제가 오늘 여러 가지 말씀을 드리겠지만 또 말씀을 드림과 함께 몇 가지 문제 제기와 또 한편으로는 여러분들께 이제 고민해 볼 거리를 드릴 건데, 그 중에서 첫 번째가 우리가 생각하는 또 우리가 생각해야 되는 인공지능이 과연 무엇일까라는 게 첫 번째 출발점이어야 된다는 겁니다. 그 출발점이 함께 공통되지 않고서는 답이 달라지거나 아니면 영원히 답을 낼 수 없다라는 겁니다. 자 그럼 여러분 머릿속에 지금 떠오른 인공지능 그리고 우리가 법으로 다뤄야 하는, 또는 법으로 다룬다는 얘기는요. 다른 말로 하면 법이 개입하는 영역은 다툼이 생겨난 영역이에요. 다툼이 없이 평화로운 영역은 법이 개입할 이유가 없습니다. 왜냐면 그냥 아주 잘 되는 건데 굳이 뭐하러 법이 개입하겠습니까. 강제적으로 법이 개입돼야 하는 영역은 평화롭게 해결할 수 없는 영역이거나 너무나 이해관계가 충돌되는 영역에 법이 개입하게 되거든요. 여러분들이 떠올릴 수 있는, 그런 문제가 생겨나는 인공지능은 어떤 걸까? 자, 아마 사람이 생각하는 인공지능의 역사를 거슬러 올라가면 아마 이런 것이 있을 것 같아요.

(p.2)

틴맨 아시죠? 오즈의 마법사에 나오는. 어떻게 보면 우리가 물론 그전에 가면 로마 시대 때 그리스 로마 신화에도 끊임없이 크리쳐들이 나옵니다. 그런데 근대에 들어서 진짜 인공지능이라고 하는 생각이 그나마 개입될 수 있는게 아마 이런 걸 거예요. 끊임없이 마음을. 소설을 보면 또는 영화를 보면 끊임없이 이 틴맨은 끊임없이 하트를 찾아 다니잖아요. 그렇죠. 어떻게 보면 우리가 지금 논의하고 있는 미래의 인공지능의 두려운 점은 의식이 있는 인공지능으로 발전하지 않을까라는 것. 사실은 이것과 비슷합니다. 근데 이걸 놓고서 우리가 논의할 순 없겠죠.

(p.3)

자 그러면 이걸까요? 이게 어찌 보면 처음으로 인공지능이라는 것이, 현대의 사람들이 생각하는 인공지능이 실제로 관념화를 벗어나 가지고 좀 더 구체적인 이미지화가 이루어진게 아마 왼쪽에 있는 메트로폴리스일 거예요. 영화. 아마 이게 처음일 거 같은데요. 그리고 또 다른 인공지능을 얘기하면 아마 오른쪽에 있는 터미네이터일 겁니다. 자 이걸 보면, 뭐 법을 다루면서 저런 얘기를 황당한 얘기를 하고 있어라고 말씀들을 하시잖아요.

(p.4)

근데 재밌는 건 뭐냐하면, 알파고가 한 5 6년 전에 나왔죠. 근데 알파고가 나온 직후에 어떤 논의가 있었냐면 법적인 영역에서 인공지능이 이제 드디어 알파고가 우리 이세돌 9단을 꺾었어, 이제 사람이 또는 사람의 어떤 마인드나 브레인이 AI에 의해서 대체되는 날이 얼마 남지 않았다라고 하는 경각심이 알파고가 승리함으로써 현실화됐습니다. 제가 말씀드 두려움이 현실이 됐다는 거예요 두려움이. 실제로 AI가 그렇게 나온다는게 아니라. 그래서 이 알파고가 나온 직후에 한 1 2년 동안이 법학계에서 또 정책 쪽에도 그렇고 AI 앞으로는 굉장히 심각한 문제가 될 수 있고 이거로 인한 법적인 규제를 해야겠다라고 해서 얘기를 막 엄청나게 했습니다. 그런데 재밌는 건 뭐냐, 막상 얘기를 한참하다 보니 하면서 그래서 여러분들이 생각하는 인공지능이 뭐 어떤 거예요 물어보면,

(p.3)

이걸 얘기하는 거예요. 이렇게 터미네이터를 염두에 두고, 실제로 규제 얘기를 하고 있는 겁니다. 물론 지금 인공지능의 발전 속도가 엄청 빠릅니다. 그런데 과연 언제쯤이 현실이 될까요, 저 정도가 되려면. 법이 아직 오지 않은 너무 먼 미래를 다루는 거는 잘못하면 아예 인공지능의 발전 자체를 막을 수가 있습니다. 너무 과도한 두려움은. 그래서 이 당시에 한 1 2년 동안 많은 분들이 우리가 생각하는 거는 곧 터미네이터 같은게 나올 거 같은데라고 하는 우려로 인해서, 단순한 우려죠. 그거로 인해서 법적인 논의를 막 했습니다. 1 2년 동안. 그게 아닌 거 같은데 계속 또 얘기들을 하셔요. 근데 1 2년 지나고 난 다음에 어떤 일이 벌어지냐면, 알파고도 이제 한참 기억속으로 저물어 가고 그리고 뭔가 새롭게 이 시대를 바꿀 수 있는 그런 인공지능이 안 나타나는 거예요. 현실 속에서 우리가 저 정도의 인공지능이 나올 수 있을까, 어 1년 지나 보니까 이제 마음이 차분해지는 거죠. 아 그거 어려울 거 같은데. 그러다 보니까 자연스럽게 법적인 논의도 좀 줄어드는 겁니다 점점점. 그래서 야 이제는 아닌가 보다 하고 넘어갔어요. 이제 그래서 시간이 지났습니다.

(p.5)

그 다음에 이거 보신 분들 꽤 있으시죠. 못 보신 분도 있을 텐데요, 이게 얼마 전에 나왔어요. 정말 최근에 나온 건데, 사실은 이게 위에 있는 프롬프트가, 프롬프트에 입력된 그 문장이 위에 제가 그대로 옮겨 놨는데 저 세 줄밖에 안 돼요. 저 세 줄의 문장을 가지고 이 영상을 만들어낸 겁니다 고화질로. 자 이걸 보면서 여러분들은 에이 뭐 우리가 그동안 생각했던게 터미네이터인데, 까짓거 저 동영상 만드는게 뭐가 어려워라고 할지 모르지만, 인공지능을 좀 이제 관심을 가지고 보셨던 분들은 이 영상을 보면서 굉장히 놀랐습니다. 왜 놀랍냐 하면요 이 영상을 쭉 보다 보면 사실은 예전에는 인공지능을 통해서 뭔가 영상을 이렇게 만들어 내더라도 어떤 어려움이 있냐면요, 예를 들이 여기 있는 캐릭터가 지나갑니다. 지나갈 때 저 뒤에 있는 선이라든가 또는 그림자라든가 또는 물의 파동이라는 이런 것들이 다 계산되어져서, 그것이 지나간 다음에 이미지가 지나기 전에 이미지와 자연스럽게 연결되는 그렇게 동영상을 만들어내는 거는 매우매우 어려워요. 엄청 어려운 일인데 이 영상을 통해서 이게 가능해졌다는 거예요. 그만큼 이제는 인공지능이 만들어내는 영상이 또는 그 처리가 굉장히 정말 수준 높게 갔다는 겁니다. 근데 이제 물론 이걸 계속 하다 보면요 뒤에 있는 잔상이나 뒤에 있는 백그라운드 이미지가 제대로 연결이 안 되는 경우도 나와요. 나오긴 해요 여전히. 그렇지만 이런게 만들어졌다는 자체가 실제로 인공지능을 세밀하게 들여다보는 사람 입장에서는 어마어마한 발전인 겁니다. 이것을 위해서는 엄청난 컴퓨팅 파워와 함께 상당히 뛰어난 형태의 인공지능 모델이 필요합니다. 근데 그것이 가능해졌다는 거예요. 그것이 가능해지게 된게 불과 제작년 11월 말, 11월 30일날 나왔던 챗GPT가 나오면서, 불과 한 1년 정도 좀 지난 사이에 엄청난 속도의 인공지능의 발전이 있는 겁니다. 사실 그 전까지는 아까 말씀드렸던 것처럼 알파고가 나온 다음에 충격은 줬지만 아 실제 생활에서는 그게 뭐 별로 영향 없을 것 같은데 막상 시간이 지나고 보니까, 근데 챗GPT가 나온 다음에 무수히 많은 LLM들, 거대 언어 모델들이 나오고 더 심지어는 이것처럼 구글의 재미나이라든가 또는 이렇게 그 Open AI 소라처럼 이제는 멀티모달이라고 해서 텍스트를 입력하면 동영상이나 이미지가 나올 수도 있고, 동영상을 넣어 가지고 텍스트가 나올 수도 있고. 또는 이것이 서로간에 크로스오버 할 수도 있는 이런 멀티모달 형태의 인공지능이 이제는 본격화하고 있고. 이것이 단순히 이론 단계에서만 머무르는 것이 아니라 실제로 굉장히 다양한 영역에 이제는 응용될 수 있다라는 겁니다. 실제로 적용되고 있고요. 이게 이제 굉장히 무서운 거거든요. 여러분들이 생각하기에 인공지능이 발전을 하면 인공지능이 너무 똑똑해서 문제가 무서운 걸까요, 아니면 인공지능이 똑똑하건 안 똑똑하건 뭔가 자동적으로 처리하는데 내가 미처 모르는 사이에 사람한테 해가 되는 결정이 되기 때문에 무서운 걸까요. 사실 알파고가 나온 직후에 많은 분들의 생각은 어땠냐 하면요, 물론 기술 하시는 분들은 다를 수 있지만. 법 하시는 분들의 공통적인 생각은 뭐냐면 너무 똑똑한 AI가 나오는게 무섭다는 거예요. 그게 위험하고 그게 이제 규제의 대상이 된다라는 거였습니다. 근데 생각해 보면요 멍청한 AI가 더 무서울 수도 있어요 잘 생각해 보시면. 그래서 AI가 실제로 사회적 관점에서는 어떤 방식으로 응용이 되어지고, 어떤 방식으로 활용되어지냐에 따라서 굉장히 무서울 수도 있고 생각보다 안 무서울 수도 있어요. 여러분들이 지금 떠오르는 인공지능으로 인한 위험성을 떠올리면 뭐가 제일 무섭다고 생각하세요? 가짜 뉴스 얘기도 나오고 딥페이크 나오고. 또 온갖게 많이 나오죠. 자 저는 진짜 무서운 것 중에 하나가 뭐냐, 여기서 갑자기 이제 내셔널 세큐리티 이슈가 나오면 되게 황당할 수을 수도 있겠지만, 실제로 글로벌한 관점에서 굉장히 무서운 것 중에 하나가 뭐냐면 이렇게 멍청한, 물론 똑똑합니다. 똑똑하지만 상대적으로 멍청한 AI와 그다음에 드론이 제례식 무기랑 결합되면 어떻게 될까요. 우리가 재례식 무기는 멀리도 못 가고 파괴력도 약하고 별로 안 무섭다다 생각했잖아요. 폐기 될 대상으로 생각합니다. 그동안에는. 그런데 그런 재례식 무기가 수천개 수만 개가 쌓여 있어요 원래는 폐기해야 되는데 거기에 굉장히 값싼 드론과 값싼 일반적인, 이런 인공지능을 갖다 붙여 놓고서 타격을 시킵니다. 무서울까요 안 무서울까요? 엄청 무서운 거예요. 이제 이런게 현실화되는 위험인 거거든요. 그래서 우리가 인공지능을 논의할 때는 인공지능이 무조건 똑똑하다고 해서 위험한 것도 아니고, 영화 보면 굉장히 똑똑한 정말 어마어마한 전 세계 모든 것들을 통제하는 그런 단일 AI가 나와 가지고, 커넥티드 AI 나와 가지고, 하나 가지고 어떻게 그걸 끌지 말지 막 인간이 분투하는 영화가 나오잖아요 물론 그렇게 똑똑한 것도 문제지만, 그렇지 않은 것들 인공지능의 발달 단계가 꼭 위에 있지 않다 하더라도 우리한테는 어느 영역에 적용되냐에 따라 가지고 엄청난 위험성을 야기할 수 있다라는 겁니다. 그래서 여러분들이 인공지능이 가져오는 위험성을 고민할 때는 인공지능 그 자체의 문제도 있지만 인공지능이 접목되어진 영역에 있어서의 위험성이 실제로 굉장히 다변화될 수도 있다라는 것을 우리가 인식해야 된다는 겁니다.

[인공지능 시대의 ... 고민해야 할까?] (p.6)

자 그러면 인공지능 시대의 법, 제도, 윤리라는 것이 아까 제가 첫 번째 드린 질문, 어떤 인공지능을 대상으로 고민해야 될까? 사실 답은 없어요. 제가 답을 드리려는게 아니라, 적어도 우리가 이러한 규제적 측면에서의 법과 제도와 윤리의 논의를 하려면, 우리가 어떤 단계를 적어도 상정하고 고민할 거냐라는 사회적 합의를 두고, 그거에 대한 것을 논의해 가고. 또 만약에 그런 대상이 여러 가지라면 여러 가지 각각의 유형을 나눠 가지고 각각 구체적인 논의를 해야 된다는 겁니다. 그렇지 않고 단순하게 일반적 포괄적인 인공지능에 대한 논의만 하게 되면요, 그럼 어떻게 되느냐 하면, 굉장히 황당하게도 너무 규제적이거나 또는 아무 짝에도 쓸모 없는 법이나 제도가 나올 수도 있다라는 겁니다. 그래서 인공지능을 논의할 때는 추상적인 인공지능 그 큰 개념이 아니라, 굉장히 구체적인 그런 논의 단계로 들어가야지만 생산성 있는 또는 효과적인, 윤리적인 또는 제도적, 법적인 논의가 가능하다라는 말씀을 먼저 드리고 싶고요.

(p.7) (p.8)

이제 이게 사실은 제가 이거는 강연할 때 종종 많이 쓰는 것 중에 하나인데, 제가 2년 3년 전까지 만 하더라도 인공지능 관련된 논의를 할 때 이게 똑같은 이미지인데요, 2 3년 전만 하더라도, 1년 반 전만 하더라도, 챗GPT 막 나왔을 때만 하더라도 이게 어떤 사업자인지 다 알아볼 수 있을 정도로 굉장히 CI가 되게 크게 나왔었어요. 그만큼 숫자가 적었다는 겁니다. 이게 뭐냐면, 인공지능으로 인한 생태계가 새롭게 만들어지고 있습니다. 과거의 생태계는 굉장히 제한적이었어요. 그런데 인공지능 챗GPT 이후로 네이버의 클로바X 라든가 또는 구글의 재미나이를 포함해서 구글 바드라든가 또는 메타에서도 그렇고 또 Open AI도 그렇고 다양한 초거대 언어 모델들도 많이 나오고 있는데. 사실은 이 모델들의 파괴력 중에 하나는 뭐냐면 다 API 방식으로 연결시켜서 특정 영역의 데이터를 파인 튜닝한 형태, 그러니까 학습시켜 가지고 파인 튜닝을 해서 그 영역에 적합한 형태의 서비스를 만들어 낸다는 거예요. 그러다 보니까 가장 많이 하는 것 중 하나가 CS 센터, 소위 말해 콜센터 같은 경우는 데이터 많이 쌓여 있잖아요. 이거 학습해 가지고 그 콜센터만의 특화된 AI 기반 서비스를 만들어내는 겁니다. 그러면 사실은 거의 그런 콜센터나 컨택 센터에 계시는 분들은 사실 일반 사람이 하는 일이 확 줄어들 거예요. 일자리가 매우 많이 줄어들겠죠. 자 그걸 가능하게 한게 바로 이런 인공지능 기반의 API 서비스 landscape인데요. 과거에는 이게 몇 개 없었어요. 정말 한 2년 전만에도 몇 개 없었어요. 그래서 이걸 보여드리면 누군지 다 알 수 있었는데, 지금은 이게 작년 말 건데도 이렇게 많거든요. 근데 지금은 훨씬 더 많아졌습니다. 이만큼 인공지능을 기반으로 부가적인 또는 응용 서비스를 만들어내는 것이 굉장히 활발해졌고, 그게 쉬워졌다는 겁니다. 그게 이제 과거의 인공지능 논의와 많이 달라진 점입니다. 그래서 이제는 어떤 분야에 어떤 데이터가 접목되어 져서 확산될지 모르는 그런 생태계가 만들어지고 있고요.

(p.9)

이게 이제 최근에 보면 AI 이제 일반적인 인공지능 관련되어서 향후에 어떤 식으로 발전해 할 거냐라는 그 퀄리티에 대한 예측의 표인데요. 이게 꼭 옳진 않지만 작년을 지나서 2025년이나 또는 30년 정도가 되면, 이제는 사실 웬만한 것들이 다 AI로 만들어지거나 또 AI에 의해서 이루어지게 된다라는 겁니다. 그러면 사실 이제는 모든 생태계에서, 우리가 이미 살아오던 어떤 경제 생태에 내에서도 인공지능을 활용하지 않고서는 살아남을 수 없는 단계로 가는 거죠. 굉장히 가속화가 될 거라는 거고요.

[인공지능의 유용성] (p.10)

당연히 인공지능은 우리에게 굉장한 유용성을 줍니다. 그래서 인공지능으로 인한 법, 제도, 윤리를 논의할 때 우리가 또 간과하지 말아야 될 것 중에 하나가 인공지능이 우리에게 가져다 주는 편익. 좋은 점들이 많잖아요. 그 편익을 우리가 얼마나 잘 활용하고, 어떻게 하면 극대화시킬 것이냐라는 논의도 함께 해야 된다는 겁니다. 두려운 점 위주로만 생각하면요 사실 제일 쉬운 건 금지하는 거예요. 얼마나 쉽습니까 금지하는 거. 그러나 금지하면 미래가 없어요 우리에게. 그래서 우리가 미래로 나아가기 위해서는 인공지능의 유용성을 극대화시키면서 동시에 어떻게 하면 위험성을 낮출 거냐라고 하는 논의가 함께 이루어져야 된다는 겁니다.

(p.11)

그런데 이걸 보면 사실 기업 비즈니스 관점에서도 엄청난 변화가 야기되어질 예정이고요. 그런 한편으로는 우리가 이제 법, 제도, 윤리를 고민하는 이유 중에 하나는 바로 리스크죠. 어떤 위험이 있을까라고 생각해 보면 사실 여러 가지가 있습니.다 근데 그중에 인공지능 특히나 최근에 생성형 인공지능이 가져오는 문제점 중에 대표적인게 바로 부정확성입니다. 이게 과연 맞나 싶은 거. 그래서 보통 우리가 쓰는 용어가 할루시네이션이라고 환각이라고 하잖아요. AI 할루시네이션이 심각해질 수도 있다. 사실 법률 분야에서 인공지능을 통해서 뭔가 하려는 노력을 많이 합니다. 근데 여러분들이 생각하시길 이제 좀 있으면 자료 수집하고 정리하고 이런 것들이 금방 AI로 대체될 거 같아라고 생각하잖아요. 근데 전문 분야 일수록 그게 굉장히 어려운 면도 있습니다. 왜 어렵냐 하면, 예를 들어서 한 100 페이지짜리 글이 있어요. 이걸 AI를 통해서 만들었습니다. 기존 자료를 막 수집해서 만들어 달라고 했어요. 그러니까 굉장히 잘 만들어요. 보니까 다 그럴 듯하고, 근데 그 중에 틀린게 1% 있어요. 그렇게 상정해 보는 겁니다. 자 그러면 이 1%를 어떻게 해야 될까요, 찾아 내야겠죠. 찾아내려면 어떡할까요. 또 다른 AI를 쓰거나 아니면 그걸 다 우리가 일일이 읽어 봐야 돼요 사람이. 전문가가 100페이지를 읽는 것과 내가 검색해 가지고 다시 정리해서 여러분들 리포트 쓰는 것처럼 하는 것과 어떤 게 빠를까요. 웬만한 전문가가 아니고서는 1% 오류를 찾아내는게 쉽지 않아요. 양이 많을수록. 그런데 문제는 그 1%가 실제 결과를 좌우할 수도 있다는 겁니다. 이게 전문 분야로 올수록 중요해요. 의료나 법률이나 이런 전문 분야로 올 수록. 그래서 인공지능을 발전시키는데 있어서 사실은 가장 큰 위험성과 또는 저해가 되는 것 중에 바로 상위에 있는게 바로 부정확성입니다. 그래서 부정확성을 얼마나 낮출 것이냐가 인공지능으로 인한 편익을 극대화시키는데 가장 중요한 요소가 될 거고요. 두 번째가 안전성이에요. 사실 AI가 그러니까 이게 시큐리티 관점에서 얼마나 안전하냐, 여기는 보안 문제도 있고 다른 한 편으로 내셔널 시큐리티인 국가 안보일 수도 있습니다. 이런 안보나 보안 관점에서의 신뢰성이 확보되지 않으면 인공지능이 확산되는데 당연히 장애가 있을 수밖에 없습니다. 그리고 또 다른 문제는 이제 기존의 기득권과의 충돌. 거기에는 저작권 이슈도 있을 수 있고, 또는 개인 정보에 대한 일반 국민들의 권리에 대한 이슈도 있을 수 있고, 또는 그 외에도 기존에 사람이 하던 일이니까 이거를 AI가 대체했을 경우에, 기존의 일할 권리 노동권 같은게 있잖아요. 그런 것들이 저하되거나 또는 위축될 수 있는 문제가 생겨납니다. 이런 것처럼 기존 기성 세계에서 그런 체계와 또는 구체제 구법 체제와의 충돌이 있을 경우에 그것 사실은 굉장히 중요한 리스크가 될 수도 있거든요. 또 한편으로는 평등에 관한 문제라든가 공정성 문제 또는 물리적 안전, 이런 문제들이 사실 문제가 됩니다.

(p.12)

그리고 최근에 이거 보면서 제가 이거 참 정리 잘했다 했어서 넣었는데요. 영어로 돼 있어서 죄송합니다, 근데 번역을 할까 하다가 혹시나 자료는 다 가지 계시니까 원문을 보시는게 더 정확하게 와닿으실 것 같아서 느낌이. 일단 했는데, 최근 들어서 굉장한 문제로서 인식되고 있는 것 중에 하나가 바로 이게 딥페이크 같습니다. 물론 프라이버시도 문제가 되고요. 이 두 가지가 실제로 무형적 측면에서 우리 인간에게 주는 위험성 중에 대표적인 걸 것 같습니다. 특히나 이것이 딥페이크나 프라이버시 침해 같은 경우는 어떤 문제가 생기냐면 사회의 근간을 흔들 수도 있어요. 생각해 보세요 여러분, 개인이 사적인 영역을 보장받는다는 거는요, 우리 민주주의 사회에서 민주주의 사회 근간을 형성합니다. 왜냐하면 나라는 존재가 보호되는 최소한의 보루도 있는 거예요. 그럼 그걸 통해 가지고 건강한 사회가 유지될 수 있는 거거든요. 근데 AI를 통해서 내 모든게 다 추적되고 추론되고, 또는 그거에서 모든게 좌우된다고 한다면 그러면 믿을게 없어요. 믿을 수가 없어요. 뭘 하더라도 다 항상 불안해야 돼요. 아 내가 이거 하면 이게 정말 나한테 도움이 될까, 안 될까. 여기 계신 분 중에 최근에. AI 면접을 혹시 해보신 분 있는지 모르겠는데요. AI 면접을 요새는 첫 번째 1단계에서 하는 경우가 많거든요. 꽤 많습니다. 자 그러면 AI 면접을 처음 앉아 있으면 어떤 느낌이 들까요? 저는 뭐 해보진 않고 그냥 결과만 많이 봤는데요 뽑을 때. 근데 그런 가끔 저는 그런 생각이 들더라고요. 내가 만약에 지금 세대라면, 내가 하다하다 사람한테 잘 보이는 것 뿐만 아니라 이제는 기계한테까지 잘 보여야 되나 싶은 생각이 드는 거예요. 근데 그걸 위해서 AI가 대량으로 면접을 하면서 사람의 당락을 결정하게 된다면, 이게 과연 정말 이게 건강한 사회일 수 있을까라는 생각이 들 수도 있는 거죠. 물론 앞으로 미래 사회는 점점 인공지능에 의지하는게 많아질 거기 때문에 어쩔 수 없는 흐름인 거 같긴 합니다. 그러나 그것이 바람직한가에 대한 고민을 한번 해볼 필요가 있는 거죠 우리가. 그리고 그 외에 사회적 경제적인 불평등이라든가, 또는 특히 아까 말씀드린 자율 무기화 이런 것들은 사실 굉장히 제 문제가 되는 거고요. 사실 마지막 줄에 있는 거, 이거는 통제되지 않는 자의식 있는 AI 이거는 정말 터미네이터 정도가 돼야 되지 않을까 싶긴 한데, 이게 정말 나올지 모르겠는데, 사실 최근에 그런 AI의 아버지라고 하시는 분들 이런 분들이 말씀하시는 거 보면 AI 어떻게 보면 끝단에 가서 지금 개발하고 계시는 분들은 2030년 정도가 지나가면 어쩌면 셀프 어웨어 AI 나올 수 있을 지도 모르겠다라고 하는 걱정들을 하는 경우도 있거든요. 그렇게 앞서가는 분들이 말하시는 말씀하시는 거 보면 가능할 것도 같아요. 근데 어쨌거나 지금 단계에서 AI 논의에서는 규제나 윤리나 이런 것들 논의할 때 너무 먼 거리에 있는 것을 너무 많이 우리가 생각하게 되면 그러면 아무것도 할 수 없게 되는 겁니다. 그래서 그런 균형감 있는 판단, 특히나 대상에 있어서 대상을 확정할 때 그런 고민이 필요하다는 말씀을 드리고 싶고요.

[인공지능의 법적 쟁점] (p.13)

법적인 쟁점을 한번 정리를 해 봤어요. 근데 여기 말고도 많습니다. 근데 이제 그래도 여러분들이 법제도 관점에서 우리가 뭘 해야 될까라는 고민을 할 때 적어도 문제 의식은 확실히 가지고 계셔야 되니까 제가 중요한 법적 점을 설명을 좀 드리겠습니다. 우선 작년 올해 AI 그런 지능 내지는 개발에 초점을 맞추면서 계속 떠오르는 문제가 바로 지적 재산권입니다. 이제 저작권이라든가 또는 데이터베이스에 대한 권리 같은 것들이 있거든요. 근데 우리 인류가 또는 초강대국인 미국이 그리고 초강대국의 초입에 들어가려고 엿보고 있는 대한민국이 지난 10여년 동안 엄청난 성장을 할 수 있었던 근간에는 특허와 지적 재산권에 대한 강력한 보호 정책이 있기 때문에 그렇습니다. 우리나라를 이끌어가는 삼성전자가 전세계 무대에서 그래도 선전할 수 있었던 이유는 엄청나게 많은 특허가 있고 그 특허를 전 세계에 실시할 수 있기 때문에 그렇거든요. 이건 누구도 부인할 수 없어요. 근데 이제 AI 시대로 접어들면서 과거의 지적 재산권이 새로운 AI를 만드는데 장애가 된다라는 얘기가 있는 겁니다. 왜 그러냐, AI를 가만히 들여다 보면요, 아직까지 AI는 다 어떤 거냐 하면 귀납적인 형태예요. 그러니까 기존에 있던 데이터를 학습을 해서 그것을 바탕으로 새롭게 추론해내기도 하고, 조합해서 새로운 또는 기존에 엄청나게 많은 경우의 수를 가지고서 결과물을 내는 거, 아웃풋을 내는 거거든요. 그 결과적으로는 어쨌거나 아직까지는 이런 귀납적 방식에 의한 AI가 주류를 이루고 있는데 이런 경우 보면 사실 귀납적이라는게 결국 뭔가 데이터가 있어야 되고 그 데이터가 얼마나 많은 양이고 얼마나 좋은 질인가가 굉장히 중요합니다. 그래서 많은 데이터를 보유하고 또 양질의 데이터를 보유하는 기업일수록 또는 단체나 기업 이런 곳일수록 당연히 더 좋은 AI를 만들 수가 있는 거예요. 그 동안에 Open AI가 얼마나 많은 데이터를 학습했는지 모릅니다. 솔직히 누구도 몰라요. 그런데 거기랑 우리나라 네이버. 네이버도 엄청나게 많이 학습했다고 하는데요, 네이버가 발표한 숫자를 보면 어떻게 보면 해외에 초거대 AI 모델을 막 개발한 것하고는 아예 비교가 안 됩니다. 그런데 그 결과값이 얼마나 차이가 나겠습니까. 물론 한국어에 특화된 경우에는 다를 수 있어요. 한국어에 특화됐을 때에는 네이버가 더 앞서가거나 더 괜찮을 수도 있지만, 그러나 그 순식간의 언어 데이터가 이제 한국어 데이터가 학습되는 순간 얼마든지 달라질 수 있는 거거든요. 그래서 중요한 건 데이터인데, 문제는 이 데이터가 기존의 지적 재산권에 의해서 보호받고 있다는 겁니다. 많은 경우에 다는 아니지만 양질의 데이터는 대부분 그렇죠. 근데 이 데이터를 우리가 자유롭게 쓸 수 있게 할 거냐라는 거예요. 그래서 AI를 위해서 과연 자유롭게 하는게 맞는 건지, 아니면 AI가 앞으로의 무조건 우리 사회를 이끌어가는 핵심이니까 일단 일단 이거에 대한 경쟁을 갖추기 위해서는 무조건 쓰게 하는게 맞는 건지. 이런 고민이 필요하고 실제로 그런 충돌이 점점 많이 벌어지고 있는 겁니다. 이건 단순하게 지적 재산권만의 문제는 아니고요, 이거는 일자리와도 관련돼 있습니다. 사실 일자리가 줄어들 수 있는 문제 중에 하나가 바로이 지적 재산권 영역이에요. 몇 년 전까지만 하더라도 디지털 트랜스포메이션이 점점 더 격화가 되면 미래의 디지털 사회에서는 사람의 일자리가 재편되는데, 재편될 때에도 살아남는게 뭐냐라고 물어봤을 때 1순위에 뭐가 있는지 아세요? 1순위에 크리에이티브한 직업들이 있습니다. 대표적인게 유튜버도 있을 수 있고, 또는 영화를 만든다거나 아니면 글을 소설을 쓴다거나, 이런 창작적인 작업들이 굉장히 1등이거나 상위에 있어 가장 앞섰습니다. 그래서 미래 사회에도 사람의 감성을 터치할 수 있는 그리고 창작적인 산물을 내는 그런 영역은 살아남을거다. 그래서 미래의 직업으로 각광받을 거다라고 했거든요. 근데 불과 몇 년 만에 상황이 바뀌었어요. 여러분 AI가 새로 만들어내는 영상이라든지 또는 애니메이션 같은 거 보신 적 있으세요? 웹툰 같은 거 되게 잘해요. 생각해 보세요, 특히나 패턴화 되어 있는 예술 작품은 더 그렇습니다. 보통 애니메이션이나 아니면 웹툰 같은 경우에는 아시다시피 물론 점점 점점 그런 화질이라든가 또는 품질이 좋아지긴 하지만 대체로 패턴화 되어 있고요. 내용도 제가 어떤 작가를 좋아한다 그러면 그 작가의 전형적인 스토리라인이 있어요. 그렇죠 플롯이 거의 비슷해요. 약간 상황이 달라지고 설정이 달라지고 할 수 있지만, 그러면 그래서 좋아서 제가 보는 거거든요. 그림도 좋아서 보고. 근데 AI한테 학습시켜 보십시오. 그렇게 되면 순식간에 AI가 더 잘 만들어 낼 수 있어요. 어떻게 보면요. 그러면 거기 밑에서 일하던 수많은 창작업에 종사하시는 분은 일자리가 없어지는 거거든요. 근데 이거는 다른 어떤 영역보다 굉장히 빨리 다가올 수 있는 우리의 인간에 대한 위협이 됩니다. 자 이런 것들이, 이런 지적 재산권 영역은 지적 재산권 침해 뿐만 아니라 다른 한편으로는 그 분야에 종사하는 일자리의 감소로도 이어질 수 있다라는 문제가 있고요. 그다음 또 다른 문제 중에 하나가 뭐냐하면 이제 프라이버시 문제가 있습니다. 최근에 Open AI가 AI의 품질을 높이기 위해서 히스토리 기능을 이제 본격화하겠다 그랬거든요. 이게 뭐냐하면, 우리가 인공지능이 저랑 계속 AI가 막 대화를 해요. Her 같은 영화 보시면 여기 꽂아 놓고서 계속 저랑 대화하면서 저에 대한 감성도 터치해 주고 필요한 거 주문도 해 주고 다 하잖아요. 자 그러려면 AI가 나에 대해서 되게 잘 알고 있어야 돼요. 여러분들 집에 가셔서 집에서 AI가 가장 빨리 도입될 수 있는 곳이 어딜까 생각해 보시면 어딜 것 같으세요? 집 안에. 물론 AI가 현실적으로 드러내거나 하드웨어적으로 결합될 수 있는 곳은 많죠. 그중에서 특히나 당장 경제 생태계를 만들 수 있는 곳은 어딜까요? 물론 콘텐츠도 있을 수 있겠지만 그거는 굉장히 쉬운 영역이고요. 바로 냉장고입니다. AI 냉장고를 만들면, 가족 구성원들이 손잡이를 잡으면 잡자마자 그 사람의 현재 몸 상태가 어떤지 다 분석이 되어져요. 체질량부터 시작해서 순식간에. 그리고 카메라가 절 쫓아다니면서 얘 오늘 뭐 먹었는지 냉장고에서 어떤 어떤 재료를 꺼내서 먹었는지 칼로리 분석이 다 되겠죠. 얼마나 먹었는지 다 나와요. 저절로 그냥 분석되는 겁니다. 그러면 이게 하루치 이틀치 뭐 1년 2년 10년 쌓여 보세요. 저보다 AI가 저를 더 잘 알 수 있을 거예요. 그러면 아 얘는 보니까 지금까지 봤을 때 어제 술한잔 하고 들어왔네, 내일쯤 뭐 먹겠다. 미리 주문해 놔야지. 이게 이제 되는 겁니다. 이게 생각보다 어렵지 않을 것 같아요. 자 이게 한편으로 보면 너무 편하잖아요. 그죠. 저 같으면 되게 편할 것 같긴 해요. 아무 생각 안 해도 알아서 다 해주고. 원래 AI 라는게 사람이 굳이 생각하지 않더라도 사람이 생각하는 것을 대신 다 해 주는게 얼마나 우리가 바라던 AI입니까. 근데 이걸 조금만 비틀어 보면, 어 그러면 얘는 나를 다 알고 있는 거네. 심지어는 내가 모르는 나에 대한 정보도 알고 있어요. 예를 들면, 제가 현재 몇 도이고 온도가, 그다음에 온도가 전체 몸 상태에서 봤을 때 머리부터 발끝까지 온도가 어떻게 구성되어 있고 그런 건 저는 모르잖아요. 근데 기계는 항상 알고 있는 거죠. 자 이러한 추적 기능이 계속 이제 상시 켜져 있을 경우에, 저는 더 이상 정말 나만의 내밀한 영역은 하나도 없게 되는 거예요. 이러한 프라이버시 문제는 아마 인공지능이 가져오는 가장 심각한 무형적 문제 중에 대표적인게 아닐까 앞으로라는 생각이 들고요. 그 다음에 AI가 한참 서비스가 초기에 이루어졌을 때 문제됐던 것 중에 하나가 바로 차별입니다. 차별이나 편향. 사실 이거는 사후적으로 AI를 계속 AI 판단이 잘못되었을 때 그 사후적으로 외부적으로 학습시킬 수도 있고 교정할 수도 있거든요. 근데 문제는 인간에 의한 강제적인 교정이 과연 바람직하냐는 또 질문이 또 나오는 거예요. AI 때문에 제가 AI 국회에서 공청회 할 때 이제 진술인으로 두 번 가면서 많이 느꼈던 것 중에 하나가 뭐냐면요. 두 번 나갔는데요, 두 번 다 결국 AI 법을 어떻게 할 거냐라는 걸로 나갔는데, 두 번이 완전히 다른 얘기를 하고 있어요. 다른 거 같으면서. 뭐냐하면 한번은 어떻게 하면 인간의 개입 없이 투명하게 자동적으로 결정이 이루어지는, 사람이 개입하지 않고. 어떤 분야냐 하면 신문 기사 배열입니다. 사람이 개입하는 자체가 불공정한 거니까 사전에 설정돼 있으면 또는 설정 기준이 변화하더라도 그냥 정해진대로 자기가 알아서 자동적으로 기사를 배열을 하고 보여 주면 되냐, 되지 않냐, 그러면 어떻게 되냐, 그러면 특정 정당을 위해서 뭔가 더 사람이 개입하거나 사람의 가치관이 개입된 어떤 기사 배열이 없는 거 아니겠어요 그렇게 해야 된다라고 주장을 막 한 거예요. 근데 한참 지나가지는 정반대 논의가 있습니다. 기계가 불공정하다는 거예요. AI 또는 자동화된 결정이 불공정하다는 겁니다. 따라서 이거를 공정하게 만들기 위해서, 예를 들면 알고리즘이 계속 바뀌거든요. 발전해 가는데, 알고리즘이 그때의 관심도나 등등을 반영해 가지고 하다 보니까 어쩌다 보니까 결과가 갑자기 A라는 정당에 더 유리하게 나오는 거예요. 더 많이 노출되는 거예요. 사실은 정치적 측면에서는 일반 유권자 노출이 많이 될수록 유리할 수 있는 거거든요. 그게 설사 노이즈 마케팅이라 하더라도. 근데 계속 자동적으로 하는 자체가 문제가 있다, 따라서 공평하게 하기 위해서 기사는 무조건 A B 정당 50%씩 나오게 만들어야 된다라고 사람이 개입하라는 겁니다. 자 어떤게 과연 공정한 걸까요? 이런 문제가 생겨나요. 그래서 혐오나 편향이나 차별 같은 문제는 사실 굉장히 어렵지만 우리가 추구하는 굉장히 높은 차원의 가치거든요. 그런데 그 가치를 실제로 AI 맥락에서 실현하기 위해서는 인간이 개입하는 것도, 개입하지 않는 것도 둘 다 사실은 문제를 가집니다. 그래서 우리가 여기서 정답은 없지만 이걸 어떻게 조화시켜 가면서 적절한 개입과 적절한 비개입이 함께 이루어져야 되는데, 그걸 어떻게 가져갈 건지를 우리가 끊임없이 고민을 해야 돼요. 고민하지 않고 그냥 AI에 맡겨 두거나, 고민하지 않고 그냥 주요 전문가 몇한테 맡겨 놓으면요, 그 주요 전문가 몇한테 좌우될 수도 있고 더 편향될 수도 있습니다. 얼마 전에 그걸 보신 적 있으세요? 사람이 인종 차별 이슈를 없애기 위해서 인종에 관련된 모든 패러미터를 없앴더니 어떤 일이 벌어지냐. 이 신문 보신 적 있을 거예요. 없앴더니만, 예를 들면 조선시대 갓 쓴 남자 그려줘 하니까 갑자기 백인이 나와요. 한국적 정서에서 조선시대 때 갓을 썼다 하면. 물론 갓 쓴 외국인이 한 두 명은 있었겠죠, 몇 명은. 하지만 일반적인 우리의 이미지는, 역사적 이미지는 기본적으로 한국 사람이 갓을 쓰고 나와 있는게 되게 일반적인 보편적인 이미지잖아요. 근데 전혀 다른 이미지가 나오는 거예요. 그런 특성 패러미터를 없애 버리니까. 그래서 인간에 의한 강제적 개입이 문제가 될 수도 있고, 아닐 수도 있다. 그래서 이러한 편향의 이슈가 우리가 사회적 합의를 도출하기 위한 끊임없는 노력을 통해 가지고 우리가 문제 이걸 해결해 나가야 된다는 것이고요. 그다음 피싱 문제. 피싱 문제 굉장히 문제가 됩니다 큽니다. 왜 문제가 되냐하면, 과거의 피싱은 물론 과거에 피싱에 당하신 분들도 꽤 많지만 지금 AI를 기반으로 한 피싱은 차원이 다릅니다. 우리가 보통 피싱 당하면, 야 한번 사진 보여 줘 봐 진짜 우리 애 있나,라고 말하면 사진에서 안 보여 주면 아무 그냥 허위인 거잖아요. 근데 지금은 영상 보여 줘 하면 오케이 바로 영상으로 가는데, 온라인상에 나와 있거나 카톡 프로필에 나와 있는 사진 몇 장 가지고 만들어내는 거예요. 영상에 영상 이미지가. 그리고 목소리, 온라인에 올라 있거나 목소리 샘플링 몇 개만 하더라도 그 목소리 나와요 그냥. 근데 그런 목소리로 다급한 목소리가 그런 얘기 들리면요, 우리가 평상시에 정상적인 사고 상태일 때는 차분하게 생각을 합니다. 그런데 한번 머릿속에 긴장과 그리고 위기 상황이라고 생각되어지면 판단 능력이 저하돼요. 그런 상황에서 영상으로 우리 애가 여기서 지금 납치돼 있는 것처럼 보여요. 그러면 당장 어떻게 될까요? 당장 돈 보내죠. 그러지 않겠어요? 실제로 이걸로 인해서 피해를 입을 뻔 했던 사람이 미국의 청문회, 미 의회 청문회에 나와 가지고 정말 간곡하게 이러한 딥페이크나 AI에 의한 피싱을 어떻게든 규제해 달라라고 하는 얘기를 실제로 증언을 한 적이 있습니다. 그런 일이 벌어진다는 거예요. 그래서 이제는 차원이 다른 피싱으로 넘어가고 있다라는 것도 있고. 이러한 것처럼 AI가 범죄에 활용될 때 과거보다 훨씬 더 그 위험성과 피해가 커질 수 있다라는 문제가 있고요. 그 다음에 이제 이러한 딥페이크나 또는 AI가 여론 형성 맥락에서 활용되어질 때. 우리 민주주의 사회의 근간을 이루는 것 중에 하나가 투표, 선거거든요. 선거를 통해서 대의제 민주주의가 완성되는 건데. 이런 대의제 민주주의가 꽃을 피우기 위해서는 정상적인 정보를 바탕으로, 충분한 정보를 바탕으로 유권자들이 본인을 대표할 수 있는 대표자를 뽑는 것이 무엇보다 중요합니다. 그런데 그 과정에서 가짜 뉴스나 또는 허위 정보가 왜곡을 할 수 있거든요. 이러한 왜곡을 통해서 결과적으로는 자유민주주의 절차 자체가 훼손되거나 왜곡될 수 있다는 겁니다. 그래서 이러한 문제가 우리가 법적인 측면에서 다뤄봐야 될 이슈 인 거고요. 또 하나는 AI 생태계가 이제는 만들어지고 있어요. 지금 많이 만들어지고 있는데요. AI 생태계가 기존의 it 생태계는 특정 영역이나 특정 it 영역이 사실 제한적인 경우도 있고, 최근에 10년 정도 동안 플랫폼이 막 발전하면서 각종 플랫폼이 실제 우리 경제의 많은 영역까지 확장했습니다. 근데 AI는 하나의 AI 플랫폼이 전 산업 영역으로 다 확장될 수 있다라는 파괴력이 있어요. 무슨 말이냐면, 기존에 플랫폼 기업들, 구글 네이버 카카오 메타 이런 기업들이 AI 열심히 활용하고 있잖아요 개발하고. 근데 여기서 개발하게 되면 기존의 본인들이 플랫폼의 지배력을 확장하는데 당연히 쓰겠죠. 근데 거기만 쓰는게 아니에요. 이 AI는 우리가 보통 AGI라고 해서 일반적인 그런 인공지능 모델이 나오기 시작하면, 과거에는 특정 영역 버티컬한 영역 에서만 AI를 개발했을 수 있었어요. 근데 지금은 이 하나의 모델을 가지고, 데이터를 어떻게 학습 시키냐에 따라 가지고 영역별로 다 활용이 가능하다는 겁니다. 이렇게 일반화 돼 간다는 거예요. 그러면 공장 돌리는 것도 AI에 접목되어지고. 근데 그 AI가 다른게 되게 다른 새롭게 만들어진 것이 아니라 하나의 공통 파운데이션 모델을 활용할 수도 있다라는 겁니다. 그런 식으로 하게 되면 기존에 있는 오프라인과 온라인의 모든 영역에까지 AI가 접목될 수도 있는 이런 이슈가 생겨나게 되고. 그러면 과거보다 이 독과점은 더 공고히 될 거예요. 생각해 보시면 지금 AI, 글로벌하게 정말 점유율을 높여가고 있는 AI은 몇 개 안 됩니다. 일단 거기는 너무 막강해요. 이걸 따라잡는게 쉬운게 아닙니다. 그 AI 작년에 AI 인덱스 평가를 하는데요. 우리나라가 전 세계에서 LLM 모델을, 초거대 언어 모델을 가지고 있는 한 손가락 안에 꼽히는 나라거든요. 근데 우리나라가 5등 정도 했어요. AI 인덱스에서요. 근데 실제로 그 5등이 들어가서 보면요 미국을 100점 만점으로 보면 우리나라 몇 점이었을 것 같으세요? 60점입니다. 60점대 초반. 자 여러분 첨단 분야에서 40점 차이는 얼마나 큰 건지를 굳이 설명 안 드려도 아시겠죠. 어마어마하게 앞서나가고 있어요. 왜냐면 그 만큼의 데이터 학습도 많이 이루지고 또 이미 너무나 앞서가 있기 때문에 점점 더 앞서가게 되는 거죠. 이런 상황에서 그 집중 현상은 더 심각해질 거라는 겁니다. 그래서 이런 집중 현상이 AI 모델에서만 나타나는 것이 아니라 AI 모델이 접목 되어진 기존의 생태계, 플랫폼이든 뭐든 이런 생태계에서의 그런 집중 현상이 어찌 보면 강화될 수도 있다. 그러면 결과적으로 경쟁이 활성화되는 시장에서는 소비자 피해, 물론 소비자 피해가 전혀 없진 않지만 경쟁이 활성화되는 시장에서는 어떻게 하면 소비자에게 더 나은 편익을 제공해 주고 또 소비자를 더 잘 보호할 거냐가 중요한 이슈가 될 거예요. 그런데 경쟁이 없는 시장에서는 그럴 유인이 아예 없는 겁니다. 왜 굳이 소비자를 보호하겠어요. 그래서 이러한 집중 현상과 경쟁지향 환경이 발생되면 결국은 일반 국민에게까지 부정적인 영향을 미칠 수도 있다라는 겁니다. 그리고 이제 자연스럽게 그런 과정에서 소비자의 선택권이 제한될 수도 있고요. 그리고 다른 한편으로는, 여러분 혹시 그런 생각해보셨습니까. AI 다 써 보셨죠 많이들. 그런 거 혹시 생각해 보신 적는 모르겠는데, 저는 이제 지금은 그렇게 안 하는데. 어 챗GPT 나온 직후에 한 6개월 정도 많이 했던 것 중에 하나가 새로 나오는 모델들이 있으면, 언어 모델이 있으면 제가 많이 해 본 것 중에 하나가 예를 들어 이런 겁니다. 내가 하와이를 가고 싶은데, 3인 가족이 가는데 우리 가족은 몇 명이 연령이 어떻게 구성되어 있고 한 7박 8일 여행하고 싶고 내가 가진 돈은 800만 원인데 800만 원 가지고 그 지역에 유명하다 하는 관광지는 일단 다 둘러보고 봤으면 좋겠고. 그리고 일단 항상은 아니지만 적어도 거기에서 인기 있는 주요 대표 메뉴는 식사를 해보고 싶다. 이걸 위해서 예산과 여행 코스를 정해 줘라고 프롬프트를 넣어요. 그러면 품질이 점점 좋아질 뿐만 아니라 실제로 언어 모델마다 답은 다른 답을 내 줍니다. 그러면 저는 어떻게 생각하겠어요. 야 이렇게 하면 진짜로 제가 한번 많이 해 봤는데, 해보면 하면 우리나라도 해보고 외국도 해보고 하는데요, 정말 기가 막게 짜 줘요. 일정까지. 그리고 렌트하고 그냥 어떻게 이동하는 시간까지 다 계산해서 해 줘요. 정말 좋아요. 자 그런데 이걸 보면서 거기 보면 식당도 나오고 하거든요. 식당도 막 나오고 쭉 얘기들 하는데, 이거는 저한테는 물론 좋은 정보이지요. 그런데 제가 다른 걸 선택할 여지는 없어져요. 예를 들어서 포케를 먹고 싶어요. 포케 집이 한두 개가 아니잖아요. 근데 추천이 들어와 있어요. 그럼 제가 그거를 버리고 다른 데로 갈 가능성이 얼마나 될까요? 일반적인 사람들이. 왜 다른 데로 가려면 또 찾아봐야 되잖아요. 비교해야 되고. 근데 그러면 뭐 추천되고 또 마침 거기 보면, 거기에 레퍼런스를 달아 줍니다. 그럼 레퍼런스 달면 어 평가도 괜찮은데 그냥 가보지 뭐. 자 그럼 이거는 저에게 유용한 정보일까요, 아니면 저에게 광고일까요? 이런 고민들을 우리가 해야 돼요. 광고로 보게 된다면 규제적 관점이 들어가겠죠. 정보로 보게 된다면 뭐 그런 것까지 규제해? 완전 시각이 달라지는 거예요. 그래서 이런 고민들도 그 결과값 정보에 대해서 한번 해봐야 될 거 같고요. 그다음에 이제 AI 통해서 각종 명의 도용. 최근에 저한테 사실 한 한 달 내에 굉장히 전화가 많이 오는 것 중에 하나가, 기자분들 통해서. 유명인 사칭 광고가 많다고 합니다. 실제로 최근에 제가 어제 전화받은 거는 어떤 분이 유명인 사칭 광고에 속아 가지고 8억을 투자했다 그래서 잃었대요. 이런 문제가 생겨나는데요. 여러분들이 보시면 실제로 그 유명 인사들이 전혀 허락한 바도 없어요. 근데 이런 딥페이크 등을 이용해 가지고 명의 도용을 해서, 실제로 이거 되게 좋은 거다 광고도 하고 또 투자 유인도 하고 이런 것들 하는 겁니다. 이랬을 때 그로 인한 일반 국민에 대한 피해는 걷잡을 수 없이 커질 수도 있는 겁니다. 왜냐하면 이게 진짜인지 가짜인지 이걸 가릴 수가 없거든요. 그래서 이러한 문제도 규제적 관점에서 우리가 고민을 좀 해봐야 되는 거고. 그리고 좀 약간 추상적인 얘기긴 하지만 사람들이 앞으로 얼마나 양질의 AI에 접근할 수 있느냐가 사회적인 격차를 발생시키는 주요 원인이 될 수도 있습니다. 제가 예를 들어서 엄청나게 좋은 AI를 써요. 그러면 정말 나에 관한 정보도 분석을 하고, 내 취향뿐만 아니라 내 경제력 그리고 모든 것들, 저의 삶의 히스토리까지 다 고민해 가지고 최적의 답을 주는데, 그러려면 간단한게 아니라 그만한 데이터를 순식간에 처리할 수 있는 컴퓨팅 파워나 또는 AI 자체가 뛰어나야 돼요. 근데 그게 아니라 되게 허접한 AI 이용하는 사람들이 있어요. 그러면 결과적으로는 무기가 달라지는 거잖아요. 싸우는 무기가 달라지는 거예요. 그러면 결과적으로는 그것이 또 다른 사회적 격차를 야기시킵니다. 그래서 어떻게 하면 AI 시대에 모든 사람을 포용할 수 있는 포용 정책을 만들 것이냐라는 것도 우리가 한번 고민을 해 봐야 되고요. 국가 간의 격차도 심해질 수 있어요. 그래서 그런 것들도 함께 고민해야 되고. 더 나아가서 인간성 상실의 시대가 다가올 수도 있다라는 겁니다. 이걸 법으로 어떻게 막을까 정말 고민을 많이 해야 되지만, 이건 법만으로는 안 되고 제도나 정책이나 또는 윤리 같은 이슈가 함께 개입이 돼야 되는 거죠. 실제로 우리가 이제 간병 로봇이 앞으로 많아질 거예요. 우리가 이제 몸이 불편하신 분들을 돕기 위해서. 사람이 하면 엄청 힘들잖아요. 그죠. 근데 기계가 하면, 로봇이 하면 힘 안 들이고 너무 쉽게 할 수 있고. 우리도 걱정 하나도 안 하고 이용할 수도 있습니다. 자 그런데 우리가 점점 사람이 아니라 기계랑 교감을 많이 하면 할수록 그러면 사람의 그런 인간성은 후퇴될 수밖에 없습니다. 우리는 사회적 동물인데. 그러면 더더군다나 이 사회에서의 소통이나 소통을 통한 이 인간성의 향상과 발전은 후퇴할 수밖에 없는 거예요. 그래서 이런 것들에 대해서 우리가 경각심을 가져야 되는데. 제가 이렇게 지적 재산권 문제부터 시작해서 여기까지 쭉 말씀을 드리면서 우려되는 것 중에 하나는 뭐냐하면, 법을 하는 사람들은 아까 처음 제가 전제한 것처럼 문제점 위주로 말을 합니다. 그런데 문제점에만 매몰되지는 않으셨으면 좋겠다라는 거예요. 그러면 오히려 우리가 잘못된 판단과, 사실 이거는 빙산의 일각일 수 있고, 더 좋은게 많은데 더 좋은게 많은 것들을 고려하지 않고이 부정적 측면만 가지고 우리 뭔가 규제해야 된다 금지해야 된다 이런 식의 극단적인 판단을 할 여지도 있다는 거예요. 아마 지금 여러분들이 뒤늦게 들어오신지 한 10분밖에 안 되신 분들은 제 지금 강의를 10분만 들었잖아요. 그분들 아마 그렇게 생각하실 거예요. 들어오자마자 아까부터 무서운 얘기만 하고 있고. 야 이렇게 무서운데 이제 AI 시대는 인간이 살 만한 시대가 안 되는구나. 어떻게든 AI 막아야겠다라고 생각할 수도 있어요. 제가 최근에 어딘가 이제 어디라고 밝히긴 뭐하지만 꽤 많은 분들이 한 수백명 모인 곳에서 역시나 이제 이렇게 스피치를 하는데, 그 자리에서 많은 분들의 반응이 그랬어요. AI를 당장 일단 멈춰야겠다라는 반응과 질문들이 나오더라고요. 근데 그거는 우리가 그런 이제 극단적인 어 대응은 우리가 정말 신중해야 된다라는 말씀 한번 드리고 싶고요.

[인공지능 시대를 맞아 ... 대응수단은?] (p.14)

자 그럼 이제 두 번째, 그러면 인공지능 시대를 맞아서 그런 법과 또는 제도 정책이나 또는 윤리나. 중에 가장 바람직한 대응 수단은 뭘까요? 사실 굉장히 어려운 질문입니다. 아까 첫 번째 질문만큼이나 어려운 질문이에요. 이거에 따라서 우리가 당장 액션을 취해야 되는 것이 달라지게 됩니다.

[AI에 대한 다각적 대응] (p.15)

자 이걸 한번 이제 보면, 이 AI에 대해서 전 세계적으로 굉장히 다각적인 대응을 하고 있습니다. 법적인 규제, 강력한 규제를 왼쪽으로 갈수록 굉장히 강력한 규제를 하고. 그건 주로 정부 사이드에서 이렇게 하려고 합니다. 다 그런 건 아니지만요. 근데 반대로 반대쪽으로 가게 되면 오른쪽으로 가게 되면 자율적인 규제, 아무래도 자율적인 규제 또 윤리 이런데 더 많이 의지하려고 하겠죠. 이 양쪽 극단이 있어요. 우리는 어디에 서야 될까요? 이렇게 질문드리면, 어디에 서야 되지? 왼쪽에 서야 되나, 오른쪽에 서야 되나, 가운데에 서야 되나라고 고민하시죠? 정답은 없습니다만 그래도 정답은 뭘까요? 누워야 됩니다. 무슨 말이냐 하면, 우리가 어떤 사회 문제를 해결하고자 할 때 보통은 하나의 해결 방식만을 추구하는 경우가 많아요. 근데 우리가 전체 사회 문제를 통으로 놓고 보면요 수많은 사회 문제를 해결하기 위해서 실은 굉장히 다각적이면서 다층적인 수단들을 다 활용하거든요. 왜냐하면 영역마다 다 다르기 때문에. 그런데 인공지능이 전형적으로 그렇습니다. 아까 제가 이제 인공지능을 쭉 설명드렸는데, 인공지능이 전형적으로 모든 영에 점점 확산되게 되면요, 모든 사회 문제가 AI 문제가 되는 거예요. 그러면 그 모든 것들을 해결하기 위해서 어느 하나 가지고 다 해결할 수 있을까요? 불가능하죠. 그래서 때때로 전문가들조차도 법 하나 만들어서 해결하자고 말씀하시는 분이 있는데, 그거는 불가능해요. 왜냐하면 AI가 어떻게 활용 접목 되느냐에 따라서 또 AI 어떻게 발전하느냐에 따라 가지고 그로 인해 미치는 부작용의 정도와 범위는 다 다르거든요. 그래서 이러한 다양한 영역에 적용될 수 있는 인공지능에 대해서는 다각적인 방법을 다 골고루 활용해야 된다라고 말씀을 드리고 싶고요. 예를 몇 개 들어 볼게요 그래도. 사실 국제기구 관점에서는 OECD 또는 UN이나 G20이나 G7 같은 데서 이러한 AI 관련된 논의를 하고 있습니다. 가장 최근에는 OECD에서 Expert group on AI, Data, and Privacy라고 이게 지난 달부터 시작됐고, 제가 이제 여기 정부 대표 우리나라를 대표에서 참여하고 있거든요. 근데 여기에서도 핵심적인 논의가 AI에 대한 원칙과 데이터 프라이버시 관련된 원칙 두 가지를 어떻게 조화시켜서 합리적으로 발전시켜 갈 거냐라는 논의를 지금 진행하고 있고. 여름이나 또는 후반 분기 쯤에 뭔가 저희가 국제적인 원칙을 발표하려고 생각을 하고 있습니다. 근데 이러한 논의가 국제 사회에서는 주로 이제 어쩔 수 없이 디테일한 걸 다 할 수 없기 때문에 이런 원칙 중심으로 얘기를 이제 설정을 하고 있는데, 보다 더 구체적인 그런 접근으로는 정부 차원에서 또는 국회 차원에서 보다 강력한 규제 수단을 동원한 그런 대응을 하려는 노력도 있습니다. 대표적인 게 EU AI Act입니다. 이게 최근에, 아주 최근에 이게 유럽 의회를 통과했어요. 그래서 이제는 시행되게 될 텐데. 이 EU AI Act를 보시면, 2021년도에 처음 제안된 다음에 2023년도에 엄청난 비판을 통해 가지고 유럽의회가 수정안을 냈고요. 그리고 올해 이제 최종적으로 채택이 됐습니다. 근데 여기 보면 각종 규제 장치들이 들어가 있어요. 또 하나는 어 AI가, AI를 실제로 시장에 출시하고 또는 활용하는데 있어서 안전성을 통제하기 위한 그런 장치들도 마련되어 있습니다. 대표적인 이제 안전성이나 위험성을 평가해서 그를 통해서 인증을 주곤 하는 것들이 있습니다. 근데 이런 것들은 유럽만 하는게 아니라 미국도 작년에 바이든 행정명령을 통해서 실제로 엄청난 양의 행정 명령을 발효하면서, 거기에서 보면 대표적인 것 중에 하나가 이런 세이프티 평가를 통해서 인증을 주려고 합니다. 그래서 통과한 곳은 신뢰하고 우리가 이용할 수도 있고, 시장에 출시할 수 있게 해 주는 거죠. 자 이게 좋게 보면 사람의 신뢰성, 사람에게 신뢰성을 부여하기 위한 되게 좋은 수단이 될 수도 있습니다. 그럼 다른 한편으로는 후발주자들이 AI를 통해서 발전할 수 있는 가능성을 오히려 꺾는 방법이기도 해요. 생각해 보세요, 안전성 평가를 지금 있는 가장 잘 나가는 것 위주로 기준을 설정해 버리면 후발주자들은 충족을 못 하게 되는 겁니다. 그래서 말하자면 시장 진입과 관련된 안전성 평가 기준 같은 것들을 두거나 그런 제도를 도입하는 거는 한편으로는 좋을 수도 있고, 한 편으로는 우리나라 같은 후발주자한테 오히려, 우리나라는 선발 그룹에 들어가 있지만 그중에는 후발주자이거든요. 굉장히 불리할 수도 있는 거죠. 그래서 이런 고민들을 우리가 해야 되는 거 같고요. 그 다음에 우리나라의 경우에도 인공지능과 관련된 13개 법안이 현재 국회 계류 중에 있습니다. 근데 아마 이번 국회 때는 통과가 어려울 거 같아 보이고. 22대 다음 국회 때 아마 다시 논의가 이루지지 않을까 생각을 하고 있고요. 민간 단체 같은 경우에는 20년도에 지능정부사회 소비자 권리장전을 만들었습니다. 이때 제가 위원장을 하면서 이걸 여러 이해관계자들과 그 다음에 전문가들 모셔 가지고 논의를 통해서 만들어 냈거든요. AI 권리장전이라는 거를. 이런 노력들이 이제 민간에서 이루어지고 있고, 기업 같은 경우에도 이게 뮌헨 AI 어코드 라고해서, 최근에 이것도 얼마 안 됐습니다. 며칠 안 됐는데, 이것도 뮌헨 콤팩트라고, 이게 뮌헨에서 이런 AI 기업과 주요 정부들과 그 다음에 민간 단체와 제가 속해 있는 인공지능 법 학회도 마찬가지로 저희가 회원들과 같이 논의해서 여기에 가입을 같이 했는데요. 이런 곳에서 같이 함께 노력하자, 전문가와 민간이 함께 노력해서 자율적으로 AI 만들거나 적용하거나 또는 서비스 하거나 할 때 우리가 지켜야 될 원칙들을 설정을 하고, 자율적으로 어떻게 하면 안전성을 확보할 거냐라는 노력을 하자라는 건데. 특히나 이번 뮌헨 AI 어코드에서는 핵심적인 건 뭐냐면, 선거 맥락에서 어떻게 하면 AI가 남용되지 않게 할 거냐라는 거에 대한 행동 지침을 마련하고 이행하자라는 것이 여기에 들어가 있습니다. 이런 것처럼 사실 좀 더 강제적인거나 좀 덜 강제적이거나 자율적인, 또는 이것이 실제로 구체적인 규정까지 기준이 설정된 것도 있고 아닌 것도 있고, 다각적인 방법들이 사실은 최근 몇 년세 열심히 논의되고 있어요. 근데 이런 논의를 통해서 보면 어느 하나만을 채택해서 될 수가 없다라는 겁니다. 우리나라도 실제로 접목되어진 영역에 따라서 또는 발전 단계에 따라서 우리나라 사업자를 적절히 보호하면서도 한편으로는 글로벌 기업과 경쟁도 할 수 있게 해주고, 그러면서 동시에 국내 AI가 또 발전할 수 있게 만들어 주는 이런 복합적인 요인들을 고려하면서 그에 맞는 다각적인 이제 방안들을 찾아가야 되는 거죠.


[OECD A.I. Principles] (p.16)

이거는 이제 각종 원칙들을 한번 제가 써 놓은 건데요. 이걸 뭐 다 설명하긴 그렇고, 한번 여러분들이 보시면 아직까지의 국제적이거나 또는 민간에서 만들어 놓은 원칙들은 추상적입니다. 아직까지는요. 그런데 이게 왜 중요하냐 하면, 우리가 AI를 규제하거나 또는 AI에 대응하기 위해서 우리가 적어도 고려해야 될 최상의 가치, 또는 우리가 추구해야 될 어떤 실천 가능한 덕목이 무엇인지를 확인시켜 주는 거는 되게 중요한 어 방향 틀을 제시합니다. 그래서 이게 보시면요 여기서 여러 가지가 있지만, 여러분들께서 특별히 이제 관심을 가지고 보셔야 될 몇 가지 키워드가 있습니다. 그 중에 첫 번째가 여기 앞에 있는 responsible이에요. 기본적으로 AI가 또는 AI를 활용하거나 접목할 때 있어서 AI 자체에도 책임성이 있어야 되지만, AI를 개발하거나 접목하거나 서비스를 하는 곳, 사람이 됐든 법인이 됐든 또 연구소가 됐든간에 거기도 책임성을 갖추도록 해야 된다는 겁니다. 그리고 또 한 편으로는 그렇게 개발 활용되어지는 AI 그 자체가 최종 이용자나 또는 AI를 통해 사업을 하는 비즈니스 유저들한테 trust worthness, 그러니까 신뢰성을 줘아야 된다는 거예요. 이러한 두 가지 키워드가 실제로 지금까지 전 세계적으로 공통적으로 우리가 공유하고 있는 공통된 가치라고 보여집니다. 그래서 우리가 만약에 어떤 윤리 지침을 만들거나 또는 개발자들이 지켜야 되는 code of conduct을 만들거나 또는 법을 만들 때에도 이러한 신뢰성과 책임성이 확보될 수 있는 체계를 갖추는 것이 글로벌한 스탠다드에도 맞고, 또 우리가 적절하게 대응하기 위한 방향성이라고 우리가 말씀드릴 수 있습니다.

[G20 AI Principle] (p.17)

자 그리고 19년도에 G20의 AI principle도 보시면 비슷해요. 결국은 어떻게 하면 신뢰성과 책임성을 갖출 거냐라는 것이 전면에 드러나 있습니다.

[미국 알고리즘 책임법안(2019)] (p.18)

그리고 미국 같은 경우에는 아직은 이거 발의만 돼 있는 건데요.

[미국 알고리즘 책임법안(2022)] (p.19)

알고리즘 책임법을 추진하면서, 여기서 핵심은 평가를 해 보자는 거예요. AI를 출시하거나 접목하기 전에 AI가 가져오는 위험성이 얼마나 심각한 건지를 한번 보자는 거예요. 자 여러분, 이제 여러분들이 유튜브라든가 아니면 넷플릭스나 디즈니 플러스 같은 걸 보잖아요. 보면 막 계속 보다 보면 저한테 관심 있어지는 또 제가 좋아하는 것 위주로 막 추천을 해 줘요. 그쵸. 최근 것이 나오면. 거기에 엄청 똑똑한 AI가 딱 접목이 됐어요. 제 데이터도 많이 쓰고 있고요. 자 이거는 저한테 얼마나 리스키 할까요? 저한테. 이제 이런게 소위 콘텐츠 모더레이션이라고 해서, 컨텐츠를 선택 배열하는 거거든요. 배열 추천해 주는 건데. 자 이것과 그 다음에 집안에 가사 간병 로봇을 둡니다. 간병 로봇에서 AI 하는 짓이 많지는 않아요. 하지만 거기에 AI가 접목되는 것, 그다음 무기에 접목되는 것. 근데 알고리즘이나 또는 AI 모델은 같다고 생각해 보세요. 이랬을 때 코어가 되는 모델은 똑같아요. 근데 이 세 가지를 다 똑같이 놓고서 규제를 해 보자라고 봅시다. 그러면 규제 수준을 어디 맞추게 될까요? 당연히 위험하지 않아야 되니까 제일 위험한 것에 맞출 거예요. 그러면 규제는 매우 높게 되겠죠. 그러면 그 규제 수준을 맞추게 되면 물론 굉장히 안전해지겠지만, 그런데 굉장히 유용하지 않게 될 거예요. 웬만한 서비스들이. 이게 딜레마입니다. 신뢰성과 안전성을 너무 높이면 그로 인한 편익이 너무 줄어들 수가 있어요. 그래서 그 게이지를 어느 정도로 맞출 거냐 라는 것이 우리가 앞으로 가야 되는 방향성이고. 그러다 보니까 이거를 일반적으로 맞춰 버리면 안 되는 거예요 결과적으로. 그래서 AI를 논의할 때는 계속 처음부터 말씀드리는 것처럼 디테일한 접근이 필요하다라는 말씀을 드리고 싶고. 그래서 여기 있는 것처럼 실제로 접목되어지는 그런 서비스별로 위험성을 평가해서, 그 위험도가 얼마나 높은가에 따라서 규제의 정도나 또 실제 구체적인 법 적용 여부를 다르게 할 수도 있다라는 겁니다. 그런 고민이 좀 필요한 거고요.

[EU GDPR(2016)] (p.20)

그다음 최근에 이제 개인 정보 관련된 이슈도 많습니다. 그래서 유럽 같은 경우에는 GDPR라고 하는 일반적인 개인정보 보호법 규정을 만들어 가지고, 여기에서 자동화된 결정에 대서 우리가 일정한 권리를 부여받자는 그런 규정이 2016년도에 들어와서 2018년부터 시행이 되고 있고, 실제로 최근에 이거와 관련해서 소송도 있었어요. 진행되고 있습니다 유럽에서. 어떤 소송인가 하면 우버 아시죠? 우버에서 일반 드라이버들한테, 택시 운전사들한테 콜을 떨어뜨려 줍니다. 이걸 자동적으로 처리를 해요. 근데 사기 행위가 탐지됐어요. 그래서 탐지된 사기를 바탕으로 해서 계정을 중단시켜 버렸습니다. 근데 이 모든 과정이 자동적으로 이루진 거예요. 그랬을 때 나는 분명히 내가 자동적인 결정에 해서 결국은 계정이 중단됐으니까 영업이 안 되잖아요. 근데 이런 과정에 대해서 내가 어떻게 아무런 권리를 행사할 수 없으면 안 될 거 아닙니까. 그래서 활용한 것이 바로 이 GDPR에 따른 자동화된 결정에 대한 대응권을 활용했습니다. 이 구체적 내용은 뭐냐하면 거부할 수 있게 해 주는 거부권이나 또는 왜 그렇게 되는지를 설명을 해 달라고 하는 설명 요건 같은 것들을 도입을 한 거예요. 자 최근에 우리나라도 이제 도입됐습니다 좀 이따 말씀드리겠지만. 이런 것들 도입했어요. 그래서 거부권 행사하겠다 혹은 설명해 달라 와 같은 권리를 행사할 수 있게 지금 만들어진 겁니다. 근데 이 전문 해석을 두고 유럽에서는 일심과 이심이 갈렸습니다. 재밌는데 이거는 지금 뭐 자세히 말씀드릴 수 없을 것 같고요. 어쨌거나 이러한 권리들이 이제 법 제도 내로 들어오고 있다는 겁니다. 슬슬.

[EU 순위 투명성 가이드라인(2020)] (p.22)

그다음에 이제 이거는 플랫폼 규제를 위해서 플랫폼들이 대부분 다 자동화된 알고리즘을 활용을 했었습니다. 과거에. 지금도 그렇게 하고 있고요. 그러다 보니까 이런 자동화된 알고리즘에 의한 결과값이 실제로는 비즈니스 유저나 또는 일반 엔드 유저한테 피해를 이야기할 수도 있지 않을까, 그래서 그러한 알고리즘의 투명성을 보장하기 위해서 일정한 정보를 공개하고, 또 그것을 통해 가지고 투명하게 이루어지는지를 모니터링할 수 있게 해 주자라는 취지에서 이 P2B 레귤레이션이 뭐냐면 플랫폼 규제법이에요. 플랫폼 규제법에 이런 알고리즘 투명성과 관련된 가이드라인을 만들었습니다. 그래서 이걸 통해서 실제 유럽이 알고리즘에 관한 정보, 그런 배열이나 검색의 결과가 나오는 정보들을 일정한 기준 같은 것들을 공개하도록 했는데, 문제는 이거는 2020년도에 나왔어요. 그러다 보니까 기존에 있는 알고리즘 기반으로 한 것이 전제가 됐던 거고, 지금과 같은 완전 데이터 기반의 이런 파운데이션 모델 우리가 말하는 챗GPT 같은 그런 AI 모델을 전제한게 아니었다는 겁니다. 그래서 이게 지금 한편으로는 실효성이 없다라고 하는 비판도 맞습니다. 어쨌거나 이런 접근도 있다라는 거고요.

[EU AI Act(2021)] (p.24)

그다음에 아까 말씀드린 EU AI Act 이게 최종적으로 입법이 됐는데, 여기는 위험을 나눠 가지고 금지되는 것과 또는 고위험군과 또 그렇지 않은 군을 나눠 가지고 규제를 차등화 시켰습니다. 이게 굉장히 의미 있는 거예요. 그래서 우리나라도 만약에 입법을 한다면 실은 우리나라에 현재 추진되고 있는 주요 법들 법안을 보면, 이렇게 여러 가지로 나누진 않았지만 주로 고위험군을 대상으로 하는 규제법들이 현재 국회에 몇 개가 계류 중에 있습니다. 그래서 아마 앞으로 입법이 된다면 주로 고위험군에 대한 규제는 도입을 하고, 고위험을 제외한 나머지에 대해서는 규제를 하지 않거나 또는 최소한의 규제로 가는 형태로 아마 당 규제 입법이 가지 않을까라고 예측은 해 봅니다만. 22대 때 국회가 어떻게 구성되느냐에 따라 가지고 달라질 수도 있을 것 같습니다.

[EU AI Act(2021)] (p.25)

이것도 이제 이런게 있고요 .

[EU AI Act - EU 의회 수정안(2023)] (p.26)

그리고 2023년 수정안을 통해 가지고 이렇게 새롭게 출시된 AI, 생성형 AI에 대한 규제도 도입했다는 겁니다. 굉장히 최근에.

(p.27)

이건 최근에 이제 통과됐다는 뉴스고요.

(p.28)

그리고 잘 보시면 이게 사실 우리로서는 우리나라는 아무래도 우리가 애국심이 많은 나라잖아요. 우리나라 국민들이 그러다 보니까 이왕이면 우리나라의 한국향 또는 한국에서 만들어 놓은 토종 AI가 더 많이 발전하고 더 글로벌 시장에서 인정받으면 좋겠다라는 그런 마음들 다 가지고 계실 겁니다. 그런데 EU AI Act가 만들어졌어요. 이제 시행 되게 될 텐데, 이미 전 세계 주요 AI 기업들이 AI Act 를 유럽의 AI Act를 얼마나 준수하고 있느냐, 준수 준비도에 관한 평가를 해 본 적이 있습니다. 보시면 이미 앞서 나가는 기업들은 상당히 많이 이미 된 것들이 많아요. 보시면 Open AI 같은 경우는 48점 만점으로 봤을 때 25개 항목에서 충족됐다고 봐지고. 25점 정도 나왔다고 봐지고. 그 다음에 구글 같은 경우에 PaLM 2 같은 경우 27, 그다음에 BLOOM이 36. 그다음에 LLaMA 같은 경우도, 메타 것, 페이스북 메타 것입니다. 21 이렇게 20 대가 되거든요. 근데 우리나라의 LLM 모델은 과연 어디까지 갔을까, 이게 사실 우리가 꼭 유럽 연합을 지킬 필요 없지만 AI 서비스라는 거는요 어쩔수없이 글로벌 서비스일 수밖에 없어요. 그래야 되고요. 글로벌 경쟁력을 갖춰야 되거든요. 근데 그런 걸 고려해 봤을 때 우리가 꼭 유럽 걸 지킬 필요는 없지만 이렇게 유럽처럼 규제가 점점 나오게 되면, 그에 대한 준비도가 높을수록 수용도도 높을 겁니다. 아까 말씀드렸다시피 점점 강조하는 거는 법을 준수하는 컴플라이언스와 그 다음에 그를 통해서 일반 유저들한테 주는 것은 신뢰성을 줄 겁니다. 법을 저렇게 잘 지키는데 적어도 나를 보호해 주는 안전판이 있겠지, 당연히 생각할 거 아닙니까.그래서 법에 대한 준수도가 얼마나 되느냐는 향후의 시장에서의 신뢰성과 또 실제 마케팅을 통해서 여러 시장을 확산할 때 굉장히 중요한 포인트가 될 건데요. 우리나라 업체들 우리나라 토종 LLM들이 계속 개발된다면 이러한 컴플라이언스 이슈는 계속 강조돼야 되고 또 그 준비도가 높아져야 되는데, 이게 이미 격차가 발생될 수밖에 없다라는게 문제예요. 그래서 이러한 것들을 극복하기 위한 것도 필요하고. 한편으로는 유럽이 저렇게 앞서가는데 우리나라도 저렇게 규제를 해야 되지 않을까라고 하는 얘기도 할 수 있지만 참 어렵습니다. 우리나라도 만약에 저렇게 강력한 법 규제 지금 나와 있는 것 중에 가장 강력한 법제 규제인데요. 가장 강력한 법을 도입했을 때 그럼 어떤 문제가 생기느냐. 우리나라 법들 우리나라 업체들도 못 지키게 된다면 결국 선발주자인 주요 해외 주요 몇 개 사업자만 또 지키게 될 거거든요. 그래서 이게 법을 규제를 너무 세게 만들면 역시 토종 기업을 막 발전하지 못하게 만들고. 그렇다고 규제를 안 하면, 여러분 서비스에 대한 신뢰가 한번 땅에 떨어지면요 그 서비스는 활용하지 않습니다. 시장에서 금방 외면 받거든요. 참 이게 어려운 딜레마 속에 있어요. 지금 그런 상황에 있다라는 거고요. AI가 본격화된 정말 초거대 언어 모델을 바탕으로 해서 본격화된게 불과 1년여가 됐는데. 이 짧은 시간 내에 이런 드라마틱한 변화가 생겨나고 있어서 우리가 끊임없이, 여기 계신 분들 뿐만 아니라 많은 분들이 이런 다각적인 요소를 함께 고민하면서 대응 방안을 찾아가야 된다라는 이제 말씀을 좀 드리고 싶은 거고요.

(p.30)

그다음에 이제 국제적으로 이렇게 UN에서도 논의를 준비하고 있고.

(p.31)

그다음에 G7이나 또는 아까 이제 말씀드렸던 바이든 행정 명령을 통해 가지고,

[FACT SHEET ...] (p.32)

엄청나게 많은 걸 강조하는데 역시나 보시면 책임성과 신뢰성을 굉장히 강조합니다. 이 두 가지를 확보하는게 핵심이고요. 그러다 보니까 세이프티라고 하는 안전성을 평가하는 모델이 되게 중요한 거버넌스로 떠올랐습니다. 그래서 영국에서, 작년에 영국에서 세이프티 서밋, 그러니까 AI 안전성 정상회담을 하면서 우리나라도 참여했는데요. 여기에서도 나온 얘기 중에 하나가 그때 블레츨리 선언을 했거든요. 근데 그때 나온 툴 중에 거버넌스 툴 중에 하나가 뭐냐, 바로 안전성 평가하고 인증을 하고 그것을 영국이 하고 싶은 거예요. 근데 그 전날 미국이 이걸 발표했습니다. 전격적으로. 그 전날 발표한 게 약간 좀 웃기긴 했는데요. 근데 주도권을 가지고 싶다는 거죠 미국도. 그래서 미국도 이 내용을 쭉 훑어 보면 리스트, 이제 표준화 기구인데요. 표준화 연구소에다가 똑같은 걸 시켰습니다. 빨리 세이프티 그 안전성을 평가하는 모델을 만들라는 겁니다. 왜냐하면 그걸 통해서 실질적으로 통제할 수 있게 되는 거거든요. 그래서 이러한 발빠른 논의들이 전 세계적으로 이루어졌다는 거고요.

(p.36)

그다음에 이게 작년에 했던 세이프티 서밋이고.

(p.37)

그리고 이건 아까 말씀드린 블레츨리 선언이라고, 영국에서 AI 정상회담을 했던 결과물인데요. 올해 5월에 우리나라에서 합니다. 올해 말에 원래 프랑스에서 하기로 했는데 이게 내년으로 넘어갔고, 이렇게 하고 있고. 오른쪽에 아까 제가 말씀드렸던 어 뮌헨 어코드인데요, 그걸 만들었다라는 거고.

(p.38)

이게 이제 가장 최근에 국제적인 동향인 OECE의 작업반인데요, 전문가 그룹인데. 이런 논의들이 보면 사실 제가 it나 또는 이런 첨단 분야에 대한 연구를 한지가 적지않게 꽤 오래 됐는데, 그동안에 2000년대 초반 90년대 후반에 디지털화, 페이퍼리스화 내지는 디지털화와 관련되어진 논의가 전 세계적으로 활발하게 일어났었어요 엄청나게. 그때는 아날로그 시대로부터 이제는 디지털 시대로 넘어오는 전환점이었습니다. 엄청난 전환점이었죠. 그때. 여러분 기억하실지 모르겠지만. 엄청난 전환성 속에 우리 y2k 사태도 있었고, 그런 과정을 거치면서 지나왔거든요. 그때 전 세계가 디지털화에 대한 충격과 디지털화를 적극적으로 추진해야 된다는 이러한 사명을 추진하기 위한 여러 가지 관심과 노력을 많이 기울였어요. 근데 그 뒤에 계속적으로 디지털 대전환이란 표현도 나오고 또는 뭐 4차 산업혁명 같은 단어도 나오고 다양한 논의들이 나왔지만, 실은 클라우드나 이런 것들이 나오면서도 관심은 가졌지만 전 세계적으로 엄청나게 폭발적인 어떤 규제 관점에서의 논의가 이루어지진 않았었거든요. 근데 제가 보기에는 거의 한 이제 20여년 전에 있었던 그 90년대 후반에 느꼈던, 90년대 중후반에 느꼈던 그때의 국가들이 정말 엄청나게 달려들었던 것 이상으로 이 AI 영역에 대해서는 엄청난 관심을 가지고, 이 AI에 대한 주도권을 놓치면 미래 주도권을 놓친다는 그런 절박한 심정들이 있는 거 같습니다. 그런 마음에 따라서 앞서가고 있는 미국조차도 그리고 그걸 따라가고 있는 바짝 따라가고 있는 영국이나 유럽 국가 캐나다도. 그 다음에 그 바로 뒤에 있는 우리나라. 그리고 그 뒤에 있는 또 다른 나라들이 비록 격차들은 있지만 미래 시대 어떻게 하면 AI를 잘 활용하면서 경쟁력을 갖출 것이냐에 대한 관심을 가지면서 이런 규제 논의도 굉장히 활발하게 이루어지는 거 같습니다. 그래서 이런 논의에 대해서 사실은 국민적인 그런 인식의 전환과 함께 모든 국민들이 함께 관심을 가지고 이걸 전문가한테 맡겨 놓을 것이 아니라 이런 사회적 합의를 찾아가는 노력들이 끊임없이 있어야 될 것 같고요.

['이루다' 사건] (p.39)

국내로 좀 와서 얘기를 해 보면, 국내는 2021년도에 이루다라고 하는 서비스와 관련된 사건이 있었고, 이거로 인해서 여기에 보면 개인 정보일 수도 있고 막말일 수도 있고 해 가지고 이때 이것 때문에 결국 개인정보 보호위원회의 처분도 이루어졌습니다. 그리고서 재작년 말인가에 이루다 2.0이 새로 출시됐거든요. 너무 궁금해서 이루다 2.0도 제가 한참 깔아서 한 달 정도 썼는데요. 너무 착해요. 자 여러분 너무 착한 챗봇은 재미가 없겠죠. 이게 이제 딜레마인 거예요. 원래 약간의 선 경계에 있는 것들이 흥미를 주고, 그게 결국은 부가 가치를 창출하는 경우가 많거든요. 그게 꼭 윤리적으로 꼭 나쁘지 않더라도 또는 약간 애매하더라도. 근데 이게 바로 전형적으로 이 말씀드린 이유는 이 이루다 사건을 경계로 해서 이제 혁신을 주장하시는 쪽에서의 비판점 중에 하나 뭐였냐면, 혁신이 막 시작하는 단계였어요. AI를 기반으로. 근데 그때 너무 강한 규제 혹은 철퇴를 내려 버리니까 이 스타트업이 꽃을 펴보지 못했다라는 겁니다. 차라리 그때 보통 미국에서 하는 wait and see라고 하잖아요. 일단 기다리고 지켜보자. 그런다음 어느 정도 무르익으면 그때 가서 좀 더 강력한 책임성을 지우자. 이런 접근 방식이 그때 필요하지 않았을까라고 하는 비판도 있습니다. 물론 그 당시에 법 하에서 개인정보 위원회가 처분할 수밖에 없었을 것 같긴 합니다. 그런데 정책적 관점에서는 이 이루다뿐만 아니라 지금 이루어지고 있는 모든 AI 개발이라든가, AI 기반으로 한 서비스를 개발해서 실제로 사업하는 이 모든 과정에서 너무 처음에 그 기를 꺾어 버리면 아예 안 될 수도 있다라는 거예요. 그래서 이러한 문제도 우리가 함께 좀 가져야 되지 않을까.

(p.40)

그래서 이 뒤에 개인정보보호 위원회가 사업자들을 위해서 그러한 문제가 있을 수 있으니까 사업자들이 자율 점검할 수 있는 그런 표도 발표를 하고,

[AI 시대의 권리: 자동화된 결정 대응권] (p.42)

그다음에 이런 가이드도 내고, 그 다음에 이제 아까 말씀드렸던 EU GDPR에서 자동화된 결정에 대한 대권을 도입했다고 말씀드렸는데요. 그것과 되게 유사한 규정이 지난주에 3월 15일 날 시행됐습니다. 우리도 작년에 개정을 해서 시행됐거든요. 그래서 이것 해서 우리나라가 예를 들면 AI 면접을 통해서 채용 여부가 결정되거나 아니면 회사나 조직 내에서 인사 평가나 고가를 평가할 때 자동화된 시스템에 의해서 이루어지게 된다고 하고 그거에 의해서 일정한 결정이 이루어진다고 한다면, 그에 대해서 내가 거부를 하거나 설명을 요구하거나 아니면 사람의 개입에 의한 재처리를 요구하거나 같이 이러한 권리들이 지난주 3월 15일부터 이제 시행이 됐습니다. 그래서 이런 것들이 앞으로 인공지능 시대에 사람의 어떤 최소한의 인간성과 기본적인 자유와 권리를 보장하기 위한 최소한의 권리로서 아마 작동하지 않을까라는 기대는 하고 있습니다.

[AI 시대의 권리: 자동화된 결정 대응권] (p.43)

이거는 한번 뭐 시간될 때 보시면 될 것 같고.

[자동화평가 결과에 대한 대응권[신용정보법]] (p.44)

그 외에도 이런 법에서 우리가 이제 보통 신용평가가 자동으로 이루어지기도 하거든요. 그런 자동화 평가에 대한 것도 규제가 있고요. 나머지는 한번 쭉 보시면 될 거 같고.

[Q. AGI 시대, 바람직한 법적 규제는?] (p.51)

제가 이제 본격적으로 드리고 싶은 말씀은 지금부터입니다. 자 이제 본격적인 보편적 인공지능 시대가 다가오고 있다고들 합니다. 실제로 다가올지는 잘 모르겠습니다만 언제 다가올지 모르겠지만, 시간 문제일 거 같긴 해요. 자 여기에서 이제 세 번째 질문과 문제의식을 좀 제시해 드리면, 새롭게 다가오고 있는 또는 한참 지금 막 커가고 있는 이런 인공지능과 관련해서 과연 법과 제도와 윤리는 어떻게 대응하는게 맞을까. 어떤게 바람직한 법적 규제일까 특히나. 여기에는 여러 가지 답이 있을 수 있을 것 같습니다. 그 중에 대표적인 게 AI는 혁신이고 AI는 우리 사람에게 엄청난 혜택을 가져다주기 때문에 그에 대한 규제는 필요하지 않다라고 주장하시는 분들도 꽤 됩니다. 그럴 수도 있죠 당연히. 이런 분들의 공통된 시각 중 하나는 뭐냐면 AI는 칼과 같다는 거예요. 칼은 그 자체는 죄가 없어요. 그쵸. 근데 칼을 쓰는 사람이 고기를 자를 수도 있고 사람을 찔러 죽일 수도 있습니다. 결과적으로 칼 그 자체는 죄가 없다는 거예요. 그래서 칼 그 자체에 규제를 들이대서 안 된다라고 하는 입장이 있습니다. 이게 첫 번째 입장이에요. 두 번째 입장은 필요하다, 그런데 기존의 규제로는 안 되고 구 체제는 새로운 AI 혁신을 감당할 수가 없으니까 새로운 것이 필요하다라는 입장입니다. 세 번째는 기존 것이랑 뭐가 다르냐, 결국 새로운 AI가 들어왔다 하더라도 결과적으로 사람을 위한 거고 사람에게 영향을 미치는 거니까 기존의 규제를 그대로 적용해도 된다, 또는 필요하다면 조금만 더 수정하거나 하더라도 되는 거지 큰 틀을 바꿀 필요는 없다라고 하는 입장도 있을 수 있습니다. 크게 아마 세 가지 입장일 것 같아요. 여러분들은 어떤게 옳다고 생각하세요? 답을 하나로 정하는 것도 역시나 지금 단계에서는 섣부를 수 있죠. 왜냐하면 AI가 어떻게 활용될지 알고요, 어떻게 발전할지 알고요.

(p.52)

자 그래서 여기서 이제 드리고 싶은 말씀. 우리나라에 지금 현재 국회에 AI 법안이 몇 개가 13개가 계류 중에 있는데요. 특히나 그 중에 최근에 정부와 국회에서 상임위가 같이 고민을 해서 통합된 통합 대안을 만들었었습니다. 근데 그 과정에서 한쪽에서는 이러한 규제를 도입하면 안 된다라고 얘기를 하고 했어요. 왜냐, 그런 규제를 통해서 결과적으로는 새롭게 혁신이 이루어지고 있는 산업군을 망하게 만든다는 겁니다. 그것도 틀린 말은 아니죠. 그런데 한쪽에서 뭐라고 했냐, 그 법 규정 중에 이게 혁신이기 때문에 일단은 허용을 해 두되, 필요하다면 사후에 규제하자는 규정이 있어요 이런게 이제 선허용 후규제의 규정이 있는데요. 일단 허용해 주는 거죠. 근데 한쪽에서는, 그렇게 했다가는 AI가 어떻게 발전할지도 모르고 어떤 위험성이 있을지도 모르는데 처음부터 일정한 기준을 정립해 놓지 않으면 나중에는 사람이 손쓸 수 없는 단계로 간다는 겁니다. 그 말도 또 틀리지 않은 거 같아요. 그러다 보니까 이 똑같은 AI 법을 두고서 한쪽에서는 나중을 대비해서 사람을 보호하기 위한 규제가 들어가야 된다라고 하고, 다른 한쪽에서는 그럴 필요가 없거나 아니면 미루자고 하는 겁니다. 이런 두 가지 전형적인 충돌한 시각이 있는 겁니다.

[2023 개정 공직선거법] (p.53)

그 와중에 작년 말에 전격적으로 공직선거법이 개정됐습니다. 이게 이제 올해 총선을 앞두고 개정됐거든요. 한번 보세요 여러분. 저게 이제 왼쪽에 있는게 규정을 그대로 카피한 겁니다. 자 여기 보면 딥페이크 영상 등을 이용한 선거 운동을 금지하는 건데요. 선거 기간 중에. 보시면 인공지능 기술 등을 이용해서 만든 실제와 구분하기 어려운 가상의 음향 이미지 또는 영상 등을 제작 편집 유포하면 안 된다는 거예요. 오른쪽에 있는 이미지는 뭘까요? 저는 이제 가끔 쓰는 것 중에 이제, 포토샵 많이 쓰시나요? 포토샵이거든요. 포토샵 2024를 깔면 거기에는 기본적으로 이런 제너레이팅 하는 그런 AI 기반의 제너레이팅 옵션이 들어가 있습니다. 그러면 영역을 지정한 다음에 저렇게 이미지를 생성할 수도 있고요, 있던 이미지를 일부 없앨 수도 있어요. 그러면 저 문자 그대로 하게 되면요, 저 82조 1항에 있는 내용을 그대로 적용하게 되면 저거는 쓸 수 있을까요 못 쓸까요? 못 쓰는 거예요 그대로 적용하면. 근데 과연, 여러분 선거 맥락에서 우리가 금지해야 될 딥페이크는 뭘까요? 그냥 제가 만약에 이걸 그대로 적용한다면요. 이거 이런게 있는데 어떻게 해야 되죠, 쉽습니다. 뭐냐 최신 버전 쓰지 마세요. 최신 AI, 생성형 AI 포함되어 있는 버전 쓰지 마세요라고 얘기할 거예요. 법적 리스크를 피하려면. 그런데 저게 과연 정말 뭔가 경우에 따라서는 선거 맥락에서 허위 뉴스가 될 수도 있겠지만, 그러나 정말 저런 이미지다 하면, 아니면 예쁘게 만들기 위서 한거다 하면 그게 과연 사실을 왜곡하는데 얼마나 영향을 미칠까요? 하나도 안 미칠 수도 있어요. 그래서 이걸 지금 드리고 싶은 말씀은 지금 단계에서 작년 말에 12월 8일날 이 법을 이제 처음 통과시킨 데에는 저는 이유가 있다고 봅니다. 왜냐면 올해에 선거가 사실 중요한 총선인데, 이 총선을 앞두고 생성형 AI 활용할 수 있는 사람과, 후보자 중에 활용하지 않는 사람간의 격차가 너무 클 수가 있어요. 아직은요. 그러니까 차라리 아예 금지시켜 버리자고 하는 접근 방식이 어떻게 보면 굉장히 공정할 수도 있습니다. 근데 이번에는 그랬다 하더라도 다음 번 선거, 그다음 번 선거가 계속 오는데 그때에도 과연 우리가 일반적으로 생성형 AI 기능 자체를 막는 것이 과연 바람직하냐라는 질문을 던지고 싶은 겁니다. 여러분들한테. 이게 바로 법적 규제를 어떻게 하는게 바람직하냐는 질문과 맞닿아 있어요. 그래서 지금은 우리가 아직은 생성형 AI나 이런 첨단 AI 기능에 대해서 모든 세대가 받아들일 준비는 안 돼 있습니다. 그러니까 일정한 시간을 벌기 위한 목적 이렇게 할 수도 있겠지만. 그러나 AI 발전 속도는 너무 빠르고 전 분야에 확산될 텐데, 그랬을 때의 적정한 규제가 뭔지를 한번 고민해 봐야 되지 않을까라는 생각을 하고요.

(p.54)

또 한 편으로는 이게 어쩔 수 없이 AI 생태계는요, AI로 인한 혁신 생태계는 기존의 구 생태계와 충돌하지 않을 수가 없습니다. 그랬을 때 우리는 어떤 입장을 취해야 될까요? 자 여기에서 제가 세 가지 사례를 말씀드립니다. 첫 번째는 맨 왼쪽에 있는 red flag act에요. 이게 영국에서 있었던 적기 조례라고 하는 빨간색 깃발 있잖아요. 이게 보시면 옛날에 저 자동차가 나왔을 때, 증기 자동차가 나왔을 때 증기 자동차가 말한테 위협이 되고, 위험하다고 해서 빨간색 깃발 든 사람은 앞서 가도록 했어요 그래서 다가오는 우마차에 경고를 하도록 하는 거예요. 그러니까 사람이 아니라 말한테 경고를 하는 거죠 말하자면. 자, 이게 어떤 결과를 낳았을까요? 저게 없었다면 증기 자동차를 처음 상용한 곳이 영국이에요. 근데 영국이 저게 없었다면 아마 전 세계적인 자동차의, 지금보다 훨씬 더 무서운 강국이 됐을 겁니다. 어쩌면. 근데 저걸로 인해서 100년이 늦어졌다는 거예요. 좀 심하게 평가 하면. 결국 독일이나 다른 나라에 뺏겼다는 겁니다.주도권을. 실제로 그랬다는 거죠 저게. 두 번째는 어 한 6 7년, 5 6년 전인가요. 전에 있었던. 택시 기사와 그다음에 모빌리티 앱 있잖아요. 아니면 택시나 이런 공유 서비스들과의 충돌입니다. 이때 슬픈 일도 있었어요. 자 그런데 이때 사실은 기득권과 새로운 혁신은 충돌할 수밖에 없고, AI는 전 영역에서 벌어질 겁니다. 그랬을 때 기존의 기득권을 무조건 보호하는게 좋은 건지, 결국은 기존의 기득권을 무조건 보호하잖아요, 그러면 사실은 우리가 많은 사람들이 호평을 했던 타다 베이직 같은 경우가 없어져 버렸거든요. 법에 의해서 없애 버렸어요. 근데 그 순간에는 어쩔 수 없었을지 모르지만 과연 그 방법밖에 없었을까라는 겁니다. 왜냐하면 시대는 변하고 특히나 첨단 기술은 계속 발전하고 우리한테 접목되면, 당연히 비용이 절감되고 일반 국민들한테 더 나은 서비스를 제공하는 쪽으로 갈 수밖에 없는게 현실이에요. 그러면 기존의 기득권이 저해되는 영역의 경우에, 그분들한테 그렇다고 먹고 살지 말라고 할 수도 없는 겁니다. 왜냐면 이 중에 저를 포함해서 이 중에 누가 일자리를 잃을지 몰라요. 우리가 다 똑같은 AI 위협에 노출되어 있고, 우리 중에 누가 일자리를 먼저 뺏길지 모르고. 어찌 보면 모두가 뺏길 수 있는데 누가 먼저냐에 따라, 누가 늦느냐 누가 빠르냐 밖에 차이가 없을 수도 있거든요. 예측할 수는 없죠. 자 그래서 이런 상황에서 기존의 기득권자로서 이 혁신에 의해서 일자리를 잃게 되는 사람들을 어떻게 하면 새로운 시대에 맞춰주거나 아니면 전환시켜 줄 거냐라는 고민도 같이 했어야 된다는 겁니다. 근데 그런 고민이 전혀 없었어요. 그래서 그런 고민을 하면서 혁신을 받아들이고 혁신을 이끌어 가야 되는 건데요. 그런 고민이 필요하다는 겁니다. 최근에 있었던 로톡과 변협도 마찬가지예요. 일반 국민 입장에서는요 어떤 변호사가 잘하는지 몰라요. 어떤 변호사가 승소 많이하고 어떤 변호사가 더 친절하고 그런 것 몰라요. 근데 그런 것 그런 정보들을 제공을 하면서 이런 플랫폼을 통해서 중계를 해 주는 건데, 이거를 이제 변호사법 위반으로 해서 지금 충돌이 계속되고 있는 거거든요. 이런 과정에서 과연 우리가 누구 편을 들자 말자 얘기를 하고 싶지 않습니다 전혀. 왜냐하면 양쪽 얘기 들어보면 다 고개가 끄덕여지거든요. 근데 시대의 변화는 우리가 어쩔 수 없어요. 그래서 시대의 변화에 따라서 생겨나는 이슈를 어떻게 현명하게 평화롭게 해결할 거냐는 관점에서 법제도가 개입돼야 된다는 겁니다. 그런 쪽에서, 그런 차원에서.

(p. 55)

그래서 AI 같은 경우도 작년 제작년에 있었던 일인데, 오른쪽에 네이버 웹툰에서 웹툰 보이콧을 했어요. AI 만들지 말라는 겁니다. 왼쪽은 할리우드에서 실제로 파업을 했습니다. 자 여러분, 오른쪽은 많은 웹툰 작가들이 이렇게 파업을 하고 거기에 썸네일을 이렇게 바꿨거든요 보이콧 하는 것으로. 자 근데 이 시기에 반대되는 일이 있었어요. 뭐냐하면 이연세 작가께서, 우리 이연세 작가 아시죠, 워낙 유명한 그 이연세 작가께서 본인이 사후에도 일반 국민들이 본인의 작품을 즐길 수 있도록 해 주기 위해서 본인 작품을 전부 다 AI 학습시켜 달라고 했어요. 그러면 사실은 결국 우리가 이 콘텐츠로부터 문화를 향유하고 시대가 발전하고 선진국으로 갈수록 우리는 문화 향유하는 시간이 많아지게 됩니다. 그런데 누군가 뛰어난 분이 평생 계속 살 수 없으니까 영생할 수 없으니까, 그렇게 돌아가시고 나면 그 문화적인 향유를 계속할 수 있게 만들어 주는 건 되게 의미 있는 일이에요. 그런데 이게 이 사태와 완전히 정반대 될 수 있는 거죠 시각이. 그래서 이러한 두 가지 시각 중에 어느 하나 일도양단으로 어느 하나만 선택하는 그런 선택은 어찌 보면 굉장히 나쁜 선택일 수도 있다. 그래서 우리가 그동안에 보면 하나의 선택 또는 어느 한 쪽에 편을 들어 주는 선택을 많이 해 왔다면, AI 시대의 복잡성으로 인해서 이제는 여러 가지를 어떻게 하면 조화롭게 받아들일 것인가라는 논의를 해가야 될 때가 됐다는 겁니다. 법적인 관점에서요.

(p.57)

그래서 또 한편으로는 우리가 진짜로 위험한 영역이 뭔지를 한번 확인해 볼 필요가 있어요. 인공지능이 수많은 영역에 적용되고 있는데요, 최근에 우크라이나 전쟁이나 러시아 전쟁이나 아니면 중동에서의 그런 충돌, 무력 충돌 같은 것들을 보시면 여기에 이 두 가지 전쟁 전투에서 획기적으로 드론과 AI 접목된 형태의 자율무기 개발이 획기적으로 늘어나고 실험장이 되고 있습니다. 자 이런 상황에서 우리나라 대한민국은 분단 국가잖아요. 북쪽과는 어쩔 수 없이 정말 여러 가지 복합적인 감정이 섞여 있고 한데. 어쨌거나 전쟁의 위험이 없어진 건 아니거든요. 이런 상황에서 아까 제가 예를 들었던 것처럼 무기가 자율 무기가 기존의 제례식 무기가 자율 무기가 되거나 또는 자율 무기가 저렴하게 만들어지는 것으로 인한 위험성은 굉장히 높습니다. 사실 높을 수 있습니다. 이런 것들 어떻게 우리가 효과적으로 대응할 것이고, 이걸 대응하기 위해서 우리나라만의 노력이 아니라 전 세계적인 주요 국가들이 함께하는 그러한 대응 체계를 만드는 것도 중요한 우리의 임무 중에 하나예요. 근데 이것과 다른 여러 가지 위험성을 비교해 봤을 때 어떤게 우리한테 더 현실적으로 위험이 될까요? 또는 어떤게 더 급박한 위험일 수 있을까요?라고 질문하면 사실은 아까 제가 엄청난 법적인 위험성을 얘기했지만 그 위험성도 사이에서는 또 하이라키가 있을 수 있어요 시급하고 중요한 것과 덜 시급하고 덜 위협적인 것이 나눠질 수 있거든요. 그런 것들을 우리가 디테일하게 나누면서 법적인 논의를 해가는 것이 바람직하고. 그리고 혁신은 강조돼야 되지만 기존의 그런 생태계와의 그런 조화를 고민하지 않으면 그것 또한 우리에게 불행이 될 수 있다. 왜냐면 우리가 다 AI로 대체될 수 있는 위험이 누군간 있을 수 있으니까. 우리 중에요. 그런 고민을 이제 하고 싶은 거고요.

(p.59)

올해 특히나 슈퍼 일렉션 이어라고 합니다. 전 세계적으로 엄청난 선거가 예정되어 있다고 합니다. 우리나라를 포함해서요. 그러다 보니까 이렇게 수많은 선거 과정에서 자유민주주의의 근간을 흔들 수 있는 딥페이크 같은 것들을 우리가 대응하는 것은 어찌 보면 굉장히 시급한 일 중에 하나일 거예요. 그래서 이러한 문제를 우리나라 내부에서도 국민들도 심각성을 깨닫고 정부도 이에 대한 적극적인 대응책을 마련하는 거는 굉장히 중요하고 시급하지 않을까. 이번에 선거 끝나면 완전히 끝나는게 아니라 다음번에 또 대선이 옵니다. 지선이 오고. 이런 것들은 더 큰 영향을 미칠 수 있기 때문에 이런 AI를 기반으로 한 그런 딥페이크에 대한 대응 내지는 가짜 뉴스에 대한 대응 같은 것 이런 것들에 대해서 우리가 좀 더 정말 심중하게 바라볼 필요가 있지 않을까라는 생각이 들고요. 이거를 위해서 우리가 너무 일반적 포괄적 과도한 규제를 도입하는 건 문제지만, 적어도 선거 맥락 투표 맥락 이런 여론 형성 맥락에서의 규제는 우리가 함께 미리 좀 고민해 볼 필요가 있다는 생각이 듭니다.

[AI Export Controls] (p.60)

또 하나는 우리가 고민해야 될게 국가안보 관점에서 최근에 AI가 많이 논의되고 있다는 겁니다. 이게 엔비디아 A100이라고 하는 유명한 칩이에요. 이게 사실 물량이 모자란다는 거예요. 이미 줄서서 사고 싶은 사람 너무 많고 특히나 중국이 사고 싶습니다. 근데 보시면 왼쪽에 있는게 규정이에요. 실제 미국의 수출입 통제 규정입니다. 자 저기 보시면 어이 4,800 TOPS를 넘는 것들은 기본적으로 해외로 무단으로 반출할 수가 없어요. 미국 밖으로. 우리나라가 아니라 미국 얘기입니다. 미국의 CHIPS and Science Act에 있는 건데요. 이걸 바탕으로 해서 각종 전략물자 통제 체계 하에 이게 반영이 돼 있습니다. 이 말은 뭐냐하면요 정말 우방 국가가 아니면 못 나가요. 근데 AI를 개발하기 위해서는 이러한 첨단 AI 칩이 불가피해요. 이게 없으면 어떡 하느냐, 이걸 이용하기 위한 클라우드를 써야 돼요. 예를 들면 아마존이라든가 이런데 보면 A100을 이용할 수 있는 서비스가 있습니다. 그럼 그걸 이용해야 돼요. A100이 없으니까. 아니면 우리나라 자체적으로 개발을 하거나. 그래서 최근에 우리나라도 반도체의 정책을 드라이브를 거는 것은 굉장히 바람직한 일이죠. 그런데 이것처럼 인공지능이 단순하게 사람의 일상을 삶을 더 풍요롭고 편안하게 만들어 주는 문제만 있는 것이 아니라, 실제론 이게 국가의 어떤 생존이라든가 국가의 중요한 그런 경쟁력과 맞닿아 있기도 하다는 겁니다. 그래서 이 AI에 대한 경쟁력을 우리가 얼마나 갖추고 또 이것을 얼마나 잘 보호하는가도 함께 고민해야 돼요. 그래서 AI를 어떻게 하면 잘 쓰고 잘 혁신할 거냐 뿐만 아니라 AI에 대한 기술력이 해외로 빠져나가는 것에 대한 것도 우리가 엄청나게 조심해야 됩니다. 순식간에 빠져 나가거든요. 그래서 이러한 노력들도 함께 가야지만 된다라는 생각이 들고요.

[세계 공통의 AI 이슈] (p.61)

그다음에 또 하나 이게 세계 공통의 이슈입니다. AI라는 게. 그래서 각종 국제 기구에서도 AI 대해서 엄청나게 논의를 하고 있는 이유 중에 하나가 그렇고. 심지어는 어 이제 Open AI CEO인 샘 알트만이 작년 초 중반에 전 세계를 돌면서 계속했던 얘기가 IAEA 같은, IAEA가 어떻게 보면 국제적으로 가장 강력한 규제기구 중에 하나잖아요. 원자력을 핵을 통제하니까. 그런 식의 규제 기구를 만드는 것이 필요하다고까지 얘기를 하고 있습니다. 여러 가지 이유가 있긴 하지만, 그만큼 AI가 가져올 수 있는 잠재력 파괴력이나 위험성 그다음에 영향력이 크고, 이것을 어떻게 하면 전 세계가 함께 공동 번영하기 위해서 잘 적절히 규율할 거냐. 규제가 아니라 어떻게 규율할 거냐라는 것이 우리에게 주어진 되게 중요한 과제라는 겁니다. 여기서 또 하나 말씀드리고 싶은 거는 AI라는 것이요 사람의 어떤 판단이라든가 사람의 개입을 최소화하기 위해서 만들어졌는데, AI를 안전하게 만들려면 결국은 사람이 개입하라 합니다. 대표적인 예가요, 아까 제가 AI 냉장고 말씀드렸잖아요. 어쩌면 상용화가 가장 빨리 될 것 중에 하나가 AI 냉장고일 텐데요. 그러면 저는 오늘 먹고 싶지 않았는데 AI가 저의 모든 것들을 판단해서 얘는 지금 건강이 뭔가 부족해, 그래서 오늘 쯤에는 야채를 먹어 줘야 해. 그런데 저는 야채를 먹고 싶지 않았어요. 그런데 야채 관련된 것을 주문해 버렸네요. 그래서 아침에 일어나니까 와 있어요 앞에. 그러면 이것을 취소할 수 있을까요 없을까요. 만약에 이거를 법적인 규제를 한다고 한다면 아마 이런 솔루션을 내놓을 겁니다. 자동화된 결정 자동화된 주문 AI 주문은 사람의 개입이 없이 이루어진 거기 때문에 어떻게든 마지막 단계에서 사람이 한번 개입하게 하자. 그럼 마지막 컨펌을 저한테 보내 가지고 제가 컨펌을 하면 오는 거고 컨펌 안 하면 안 오는 거예요. 그러면 우리가 AI를 쓰는 메리트가 없죠. 이게 딜레마인 거예요. AI에 대한 규제는 불가피하게 개입을 요구하는데 그 개입은 AI의 본질적 속성과 충돌한다는 겁니다. 이걸 어떻게 우리가 현실적으로 잘 타협하느냐가 이 모든 영역에서 현명한 답을 이끌어내는데 되게 중요한 하나의 판단 요소 내지는 출발점이 될 수도 있다라는 말씀을 드리고요.

(p.62)

그래서 앞으로 우리가 접근해야 되는 규제 방식은 이렇게 다양한게 좋은 말 써 놨습니다. 이걸 하나하나 다 설명드리기 너무 양이 많고요. 하지만 이런 다양한 결국 저걸 보면요, 제가 이걸 쓰면서 느꼈던게 뭐냐면 결국 AI에 대한 대응은 우리 인류가 인류의 역사가 발전되는 과정에서 했던 모든 대응 방안의 총합이 아닐까라는 생각을 했습니다. 그래서 당장의 답은 명확하게 나오지 않을 수 있지만, 이런 다양한 노력들과 다양한 고려 요소들을 함께 우리가 참작하면, 종합적으로 고려하면서 현명한 대응방안을 찾아가는 것이,

[인공지능 시대, 바람직한 정책 대응 방향은?] (p.63)

우리에게 놓여진 중요한 과제이자 우리가 함께 고민해야 될 사안이라 생각되고요. 그래서 이러한 국내에서 AI 경쟁력 확보뿐만 아니라 실내 프레임웍을 개발을 하고, 또 한편으로는 국제적인 동향에 우리가 대응하지 않을 수 없기 때문에 국제적인 흐름과 보조를 맞춰야 됩니다. 그래서 국제적인 거버넌스에 적극적으로 참여하면서 또 한 편으로는 일반인들, 우리 같은 일반인들과 굉장히 전문적인 AI 리더 그룹이 따로따로 가는 것이 아니라, 함께 대화하고 이렇게 공론화시켜 갈 수 있는 장들을 계속 끊임없이 만들고, 또 타협하는 것이 우리가 법적인 대응에 현명한 태도가 아닐까라는 말씀을 드리면서 강의 마치겠습니다.

[감사합니다!]

감사합니다.

내용

제953회 한은금요강좌

 ㅇ 일시 : 2024. 3.22(금), 14:00~16:00

 ㅇ 주제 : 인공지능 시대의 법, 제도, 윤리

 ㅇ 강사 : 가천대학교 법학과 최경진 교수


※ 강의자료의 저작권은 한국은행에 있습니다. 자료를 재편집하여 게시 또는 사용하는 것은 허용하지 않으며, 원자료에 대한 직접 링크 또는 심층링크하는 방식으로 이용하는 경우만 허용하고 있음을 알려드립니다. 저작권과 관련한 자세한 안내는 한국은행 저작권보호방침을 참고하여 주십시오

유용한 정보가 되었나요?

담당부서
경제교육실 경제교육기획팀
전화번호
02-759-4269, 5325

내가 본 콘텐츠