AI Insight

인공지능(AI) 윤리기준, 그게 뭐야?

요즘 인공지능(AI)을 활용한 여러 서비스가 많이 나오고 있는데요. AI의 경우 더 발전하려면 많은 데이터를 바탕으로 학습을 해야 합니다. AI 기술의 발전과 이의 활용에 있어 양질의 데이터는 필수적이죠. 

하지만 문제는 이 과정에서 생길 수 있어요. AI 학습에 필요한 데이터는 개인이 제공하는 경우가 많은데요. 개인정보를 드러내는 데이터의 경우 주로 비식별화 처리를 거쳐 학습하게 됩니다. 개인정보를 가명으로 처리하면 정보 주체의 동의 없이 과학적 연구를 위해 사용할 수 있거든요. 하지만 비식별화가 제대로 되지 않으면 개인정보 침해나 유출 피해로 이어질 수 있는 만큼 무척 중요한 사안이죠. 

이렇듯 AI 기술이 발전함에 따라 개인정보 유출과 보호에 관한 관심이 꾸준히 증가하고 있어요. 소중한 개인정보 보호를 위해 인공지능을 개발 및 활용하는 과정에서 고려되어야 하는 원칙이 있다는 사실, 혹시 여러분은 알고 계셨나요?

오늘은 과학기술정보통신부(이하 과기정통부)가 발표한 인공지능 개발 3대 기본원칙10대 세부 원칙에 대해서 알기 쉽게 이야기를 해볼까 해요. 


3대 기본 원칙 

인공지능을 개발 및 활용하는 과정에서 고려되어야 하는 원칙입니다. 


1. 인간 존엄성 원칙

  • 인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계제품과는 교환 불가능한 가치가 있다.
  • 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다.
  • 인공지능 개발 및 활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 해야 한다.


2. 사회의 공공선 원칙

  • 공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구한다.
  • 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하도록 개발 및 활용되어야 한다.
  • 공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 한다.


3. 기술의 합목적성 원칙

  • 인공지능 기술은 인류의 삶에 필요한 도구라는 목적과 의도에 부합되게 개발 및 활용되어야 하며 그 과정도 윤리적이어야 한다.
  • 인류의 삶과 번영을 위한 인공지능 개발 및 활용을 장려하여 진흥해야 한다.


아무리 AI가 발전하고 삶이 더욱 편리해진다고 한들 가장 중요한 건 첫째도 인간, 둘째도 인간이에요. AI 기술 개발도 중요하지만, 무엇보다 절대 인간에게 해를 끼치는 상황이 있어서는 안 된다는 것! 

그리고 AI는 사회적 약자와 취약 계층의 삶을 좀 더 윤택하게 할 수 있도록 활용되어야 합니다. 

이뿐만이 아니에요! AI 기술을 개발하는 과정에서 비윤리적인 일이 일어난다면? 있어서는 안 될 일이죠~ 과기정통부가 발표한 인공지능 3대 기본 원칙에는 인간의 삶이 더 편해질 수 있도록 윤리적인 선 안에서 AI를 개발해야 한다는 내용이 적혀 있어요. 그동안 사람들이 불편을 느꼈던 부분을 AI가 해결하고 도움 줄 수 있도록, 기본 원칙을 지키면서 지속 개발되길 바라요!


10대 핵심요건 

3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 전체 생명 주기에 걸쳐 충족되어야 하는 10가지 핵심 요건에 대해서 이야기를 해볼게요. 


1. 인권보장

  • 인공지능의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고, 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장하여야 한다.
  • 인공지능의 개발과 활용은 인간의 권리와 자유를 침해해서는 안 된다.


2. 프라이버시 보호

  • 인공지능을 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 한다.
  • 인공지능 전 생애주기에 걸쳐 개인 정보의 오용을 최소화하도록 노력해야 한다.


3. 다양성 존중

  • 인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다.
  • 사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고, 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력해야 한다.


4. 침해금지

  • 인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안 된다.
  • 인공지능이 야기할 수 있는 위험과 부정적 결과에 대응 방안을 마련하도록 노력해야 한다.


5. 공공성

  • 인공지능은 개인적 행복 추구 뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 한다.
  • 인공지능은 긍정적 사회변화를 이끄는 방향으로 활용되어야 한다.
  • 인공지능의 순기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행하여야 한다.


6. 연대성

  • 다양한 집단 간의 관계 연대성을 유지하고, 미래세대를 충분히 배려하여 인공지능을 활용해야 한다.
  • 인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장하여야 한다.
  • 윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력해야 한다.


7. 데이터 관리

  • 개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고, 목적 외 용도로 활용하지 않아야 한다.
  • 데이터 수집과 활용의 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 한다.


8. 책임성

  • 인공지능 개발 및 활용과정에서 책임주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다.
  • 인공지능 설계 및 개발자, 서비스 제공자, 사용자 간의 책임소재를 명확히 해야 한다.


9. 안전성

  • 인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 한다.
  • 인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력해야 한다.


10. 투명성

  • 사회적 신뢰 형성을 위해 타 원칙과의 상충관계를 고려하여 인공지능 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울여야 한다.
  • 인공지능기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 과정에서 발생할 수 있는 위험 등의 유의사항을 사전에 고지해야 한다.


AI 개발이 아무리 중요하다고 해도 결국은 인간의 삶을 더 편하게 하려고 만드는 것이잖아요. 그러니 인간의 권리와 자유를 침해해서는 절대 안 됩니다. 

AI를 개발하는 과정에서 개인정보 역시 관리가 잘 되어 보호되어야 해요. 그리고 AI 학습을 위해 모인 데이터는 그 목적에 맞게만 활용해야 한다는 것! AI 학습 외에 다른 용도로 사용하는 건 절대 안 되겠죠? 우리 모두가 명심해야 할 부분이랍니다.

어렵겠지만 AI가 혹시라도 부정적인 영향을 끼치게 될 시 대응할 방안도 미리 마련할 수 있어야 합니다. AI 기술은 어디까지나 인간의 더 나은 복지를 위해 존재해야 하는 것이니까요.


지금까지 인공지능 윤리 기준에 대해 알아봤어요. 어려운 듯 적혀있지만 전하고 있는 메시지는 명확합니다. 인간의 편리함을 위해 개발하되 인간의 자유와 권리를 침해하면 안 된다는 것! 그리고 AI 학습을 위해 모아진 데이터의 경우 개인 정보 보호를 확실하게 해서 관리해야 한다는 것! 이렇게 읽어 보니 별로 어렵지 않죠?

위에서 설명한 것들은 최소한으로 반드시 지켜져야 할 인공지능 윤리 기준이에요. 각 기업에서 더 많이 고민하고, 각자의 상황에 맞는 윤리 기준을 더 추가해서 개발 및 활용을 해야 한답니다. 

다음 콘텐츠 역시 개인 정보 보호에 관한 이야기인데요. 

아틀라스랩스에서 서비스하는 스위치 프로덕트의 데이터 관리 및 개인 정보 보호 방법에 대해 소개하려고 해요. 아틀라스랩스는 여러분의 개인 정보를 상상 이상으로 잘 보호하고 있다는 것을 살짝 스포하면서 오늘의 콘텐츠를 끝내려고 합니다. 

우리 다음 콘텐츠에서 곧 다시 만나요!