ICO의 AI 및 데이터 보호에 관한 지침이 2023년 3월 15일에 새롭게 업데이트되었습니다. 이번에 업데이트된 가이드라인은 기업이 AI 시스템을 이용할 때 데이터 보호법을 어떻게 준수할 수 있는지에 대하여 더욱 구체적으로 설명하고 있습니다.

이번 ICO 가이드라인은 주로 어떤 내용을 담고 있나요?

가이드라인에서 설명하는 내용은 다음과 같습니다:

  • 공정성(Fairness)
  • 책임성(Accountability)
  • 투명성(Transparency)
  • 설명 가능성(Explainability)
  • Bias편향성(Bias)
  • 데이터 보호 영향 평가(Data protection impact assessments)

더불어 본 가이드라인에는 기업들이 실제로 해당 가이드라인을 어떻게 적용했는지 보여주는 다양한 사례 연구도 수록되어 있습니다.

ICO의 가이드라인은 AI 시스템을 사용하는 기업에게 유익한 자료입니다. 위 가이드라인은 AI 시스템을 사용할 때 데이터 보호법을 준수하는 방법에 대한 명료하고 실질적인 조언을 제공합니다.

'공정성'(fairness)의 원칙은 어떤 영향을 받나요?

데이터 보호법의 주요 원칙 중 하나가 바로 공정성입니다. 즉, 기업은 불공정하거나 차별적인 방식으로 AI 시스템을 사용하지 않아야 합니다.

ICO의 가이드라인은 공정성을 평가할 때 기업이 반드시 염두에 두어야 할 몇 가지 사항을 다음과 같이 제시합니다:

  • AI 시스템이 사용되는 목적
  • AI 시스템이 개개인에게 미치는 영향
  • 개인을 보호하기 위해 마련된 안전장치

책임성(accountability)은 어떤 영향을 미치나요?

AI 시스템을 사용하는 기업은 해당 시스템을 사용하는 방식에 대해 책임을 져야 합니다. 이는 데이터 보호법을 준수하고 있음을 입증할 수 있어야 한다는 의미입니다.

ICO의 가이드라인은 기업이 AI 시스템 사용에 대한 책임을 다하기 위해 취할 수 있는 몇 가지 단계를 다음과 같이 설명합니다:

  • AI 시스템 사용에 대한 문서화
  • 적절한 거버넌스 체계 구현
  • 데이터 보호 영향 평가 실시

데이터 보호법에 대한 직원 교육          

투명성(transparency)이 왜 중요한가요?

AI 시스템을 사용하는 기업은 해당 시스템의 작동 방식을 투명하게 공개해야 합니다. 이는 AI 시스템에서 개인 데이터가 어떻게 사용되는지에 대한 정보를 반드시 당사자에게 제공해야 한다는 뜻입니다.

ICO의 가이드라인은 기업이 AI 시스템 사용에 대해 투명성을 확보할 수 있는 몇 가지 방법을 제시합니다:

  • AI 시스템에 대한 명료하고 간결한 정보 제공
  • 개인이 자신의 개인 데이터가 어떻게 사용되는지 손쉽게 파악할 수 있도록 지원
  • 개인에게 AI 시스템 사용을 거부할 수 있는 기회 제공

'설명 가능성'(explainability)의 정의는 무엇인가요?

AI 시스템을 사용하는 기업은 해당 시스템의 운영 방식을 설명할 수 있어야 합니다. 즉, AI 시스템에서 개인 데이터가 어떻게 사용되는지에 대한 설명을 당사자에게 제공할 수 있어야 합니다.

ICO의 가이드라인은 기업이 AI 시스템 사용에 대해 설명할 수 있는 방법에 대한 몇 가지 사례를 제시하며, 여기에는 다음과 같은 내용이 포함됩니다:

  • AI 시스템에서 사용하는 데이터에 대한 액세스 권한을 개인에게 제공
  • AI 시스템에서 사용하는 알고리즘에 대한 정보를 개인에게 제공
  • AI 시스템이 의사 결정을 내리는 방식에 대한 정보를 개인에게 제공

AI 편향성(bias)을 완화하려면 어떻게 해야 할까요?

AI 시스템은 편향될 수 있습니다. 따라서 불공정하거나 차별적인 결정을 내릴 수 있습니다.

AI 시스템의 편향성을 완화하기 위해 ICO는 다음과 같은 몇 가지 단계를 권장하고 있습니다:

  • 다양한 사람들로부터 데이터 수집
  • 공정성을 확보하도록 설계된 알고리즘 사용
  • AI 시스템의 편향성 테스트
  • AI 시스템의 편향성 모니터링

데이터 보호 영향 평가(data protection impact assessments)는 언제 필요한가요?

AI 시스템을 사용하는 기업은 해당 시스템의 사용이 개인의 권리와 자유에 대한 중대한 위험을 초래할 가능성이 있는 경우 데이터 보호 영향 평가(DPIAs)를 실시해야 합니다.

DPIA는 기업이 AI 시스템 사용으로 인해 발생할 수 있는 개인의 권리와 자유에 대한 위험을 식별, 평가, 완화하는 데 사용할 수 있는 일련의 프로세스입니다.

ICO는 기업이 DPIA를 수행하기 위해 취할 수 있는 조치를 다음과 같이 권장합니다:

  • AI 시스템 사용으로 인한 위험 식별
  • 이러한 위험이 개인의 권리와 자유에 미치는 영향 평가
  • AI 시스템으로 인한 위험 완화
  • 완화 대책의 효과 모니터링

 

Keith McAlister

문의

3CS Corporate Solicitors

Providing solutions, not just legal advice
연락처

문의

연락처

3CS Corporate Solicitors Ltd


London Office
English (United Kingdom)
60 Moorgate, London EC2R 6EJ
+44 (0)20 4516 1260
info@3cslondon.com
To view a map of where to find us, please click here.


Tokyo Office
Japanese
Level 20, Marunouchi Trust Tower – Main
1-8-3 Marunouchi Chiyoda-ku, Tokyo, 100-0005
+81 (0) 3 5288 5239
info@3cstokyo.com
To view a map of where to find us, please click here.

 

 

성명
Please enter your phone number
Please enter your email
Invalid Input
Invalid Input
성명

고객사


전체 고객사 리스트를 보시려면 클릭하시기 바랍니다
The Legal 500 - Leading Firm 2025

Registered in England & Wales | Registered office is 60 Moorgate, London, EC2R 6EJ
3CS Corporate Solicitors Ltd is registered under the number 08198795
3CS Corporate Solicitors Ltd is a Solicitors Practice, authorised and regulated by the Solicitors Regulation Authority with number 597935


Registered in England & Wales | Registered office is 60 Moorgate, London, EC2R 6EJ
3CS Corporate Solicitors Ltd is registered under the number 08198795
3CS Corporate Solicitors Ltd is a Solicitors Practice, authorised and regulated by the Solicitors Regulation Authority with number 597935