728x90
생성형 AI 데이터 활용 정책과 이용자 보호에 관한 주요 정책 동향
대한민국 정부 및 관련 기관이 발표한 생성형 인공지능, 데이터 합성, 데이터 활용, 이용자 보호에 관한 주요 정책 및 가이드라인을 정리한 내용입니다.
ㅁ 개인정보보호 및 데이터 활용 정책
| 구분 | 법령/가이드라인 | 발표시기 | 적용범위 | 주요내용 | 발표기관/주관 |
| 개인정보 비식별 | 개인정보 비식별조치 가이드라인 | 2016.6.30 (지속개정) |
개인정보, 빅데이터 등 | * 개인정보가 비식별화 절차 및 기준 제시 - 비식별 조치 절차(식별자 제거, 가명화, 범주화 방법등) 조치 기준 명확화 - 사전검토 → 비식별 조치 → 적정성 평가(외부전문가 포함) → 활용 단계로 절차화 * 적정성 평가 기준, 외부전문가 평가단 구성 - 전문가 평가단 구성 - 재식별 위험이 있을 시 추가 조치와 재평가 |
행정자치부 등 6개 부처합동 |
| 개인정보 보호법 | 개인정보보호법(데이터 3법) | 2020.8(시행) 2022~2024 (전면개정) |
개인정보, 공공데이터, AI | * 데이터 활용 활성화와 보호 균형, 혁신 생태계 구축 - 수집·이용범위 확대, 가명정보 제도화, 활용근거 강화, - 데이터 결합·반출∙전송요구권, 자동화 결정 통지·거부권, - 국외이전 요건 강화, 신기술‧AI‧국제조화 등 반영 |
대한민국 국회/개인정보보호위원회 |
| 가명정보 | 가명정보 처리 및 활용 가이드라인 | 2020.8(1차) 2024.2(2차) |
데이터 3법, 공공/민간 활용 | * 가명정보를 안전하게 활용·결합·반출할 수 있는 법적·행정적 기준 규정 - 가명정보의 처리, 결합, 반출, 재식별 금지, 안전조치 등 구체화 - 비정형 데이터, 결합 및 제공 절차, 평가·안전성 조치 등 세부 요건 포함 - 공공 및 민간 데이터의 가명처리, 활용 절차 법적 명확화 |
개인정보보호위원회 |
| 합성데이터 | 합성데이터 생성·활용 안내서 | 2024.12.19 | 합성(AI)데이터, 공공/민간 | * 합성(가상)데이터 생성·활용에서의 개인정보 유출 방지와 안전성 기준 명확화 * 합성데이터(가상의 데이터) 생성·활용 시 개인정보 보호와 안전성 확보를 위한 세부 절차 - ①사전준비 → ②합성데이터 생성 → ③안전성·유용성 검증 → ④심의위원회 평가 → ⑤활용 및 안전한 관리 등 단계 * 합성데이터 생성 참조모델 제시 - 생성활용주체, 적법절차, 전처리, 안전성/유용성 검증, 법적 적합성 체크리스트, 심의기준 등 세부 절차 문서화 |
개인정보보호위원회 |
| 생성형 AI 활용 | 생성형 AI 관련 가이드라인 | 2023~ | 생성형AI, 데이터 활용 | * 생성형 AI 활용 시 개인정보 및 민감 정보 보호 기준 정립 - AI 학습용 데이터의 적법성, 안전성, 익명화, 합성 데이터, 민감정보 보호 방안 등 |
과기정통부,개인정보보호위, 한국지능정보사회진흥원(NIA)·정보보호기관 등 |
ㅁ 생성형 AI 및 데이터 활용을 위한 정책 및 가이드
| 구분 | 제목 | 발표 시기 | 적용범위 | 주요 내용 | 발표기관/주관 |
| 합성데이터 | 합성데이터 생성·활용 안내서 | 2024.12.19 | 안전한 합성데이터 생성과 개인정보보호를 동시에 보장 | - 합성데이터 생성, 안전성·유용성 평가 절차 단계별 제시 - 적법성 준수 및 심의위원회 평가 - 활용 시 개인정보 재식별 방지 방안 안내 |
개인정보보호위원회 |
| AI서비스 | 챗GPT 등 생성형 AI 활용 보안 가이드라인 | 2023.6 | 생성형 AI 활용 중 발생 가능한 민감정보 유출 방지 및 보안 강화 | - 민감정보 취급 시 보안관리 지침 - 개발·운영상 보안관리 체계 구축 권고 - 내부 정보 유출 예방 및 사고 대응 방법 |
국가정보원 |
| AI서비스 | AI 개발·서비스 개인정보 처리 및 보호 안내서 | 2024.7 | 생성형 AI 개발·운영 단계에서 개인정보 적법·안전 처리 및 보호 수립 | - 데이터 수집·처리·가명·합성·비식별화 관련 법적 기준 안내 - 개인정보 침해 예방 위한 기술·관리적 조치 권고 - 정보주체 권리 보장 강화 |
개인정보보호위원회 |
| AI서비스 | 금융분야 생성형 AI 활용 가이드라인 | 2023~2024년 | 금융권 생성형 AI 활용 시 데이터 관리·보안·윤리 강화 | - AI 학습 데이터 안전성 확보 방안 - 생성형 AI 모델의 투명성과 설명가능성 강조 - 금융 분야 특화 개인정보 보호 대책 포함 |
금융위원회 |
| AI서비스 | 생성형 AI 윤리 가이드라인 (환경 분야) | 2025. 1 | 환경 분야 생성형 AI 활용 시 윤리 기준 및 지속가능성 확보 | - AI 기반 환경 데이터 활용의 윤리성 강조 - 지속가능한 AI 개발 목표 지원 - 투명성 및 책임 강화 방안 소개 |
한국환경공단 |
| AI서비스 | 생성형 인공지능 서비스 이용자 보호 가이드라인 | 2025. 2 | 생성형 AI 서비스 이용자 권리 보호 및 피해 예방 | - 인간 중심 안전확보 및 투명성 강화 - 이용자 권리 보장 및 참여 확대 - 데이터 신뢰성 관리 - 생성물 유통 관리 - 피해 시 신속 대응 체계 구축 |
방송통신위원회 |
요약
- 생성형 AI 서비스 이용자 보호는 방송통신위원회에서 주도해, 이용자의 권리 보호와 서비스 투명성을 강화하는 가이드라인을 발표(2025년).
- 개인정보보호위원회는 AI 개발과 데이터 합성과 관련된 개인정보 보호 원칙과 단계별 안전 조치, 적법성 확보 방안 안내서를 2024년 발표해 법적·기술적 가이드라인을 제공.
- **합성데이터 활용 안내서(2024)**는 합성 과정부터 안전성 평가, 심의까지 전 과정을 규정해 데이터 활용의 안전성과 효용성을 모두 추구.
- 여러 부처 및 기관은 가명정보 처리, 개인정보 비식별조치 등 기존 데이터 보호 정책을 강화·개선하며 AI·빅데이터 시대에 맞는 체계적 관리를 하고 있음.
- 금융·보안·환경 분야 등 특화 영역에서는 별도의 상세 가이드라인이 추가로 마련돼, 생성형 AI의 다양한 활용 영역별 특성을 반영한 정책이 이뤄짐.
728x90
반응형
'BigData' 카테고리의 다른 글
| RLHF(Reinforcement Learning from Human Feedback, 인간 피드백을 통한 강화 학습) 모델 구현 절차 (1) | 2025.08.02 |
|---|---|
| Supervised Fine-Tuning(SFT)과 Direct Preference Optimization(DPO), RLHF(Reinforcement Learning from Human Feedback) 비교 (1) | 2025.08.02 |
| Supervised Fine-Tuning(SFT)과 Direct Preference Optimization(DPO) (0) | 2025.08.02 |
| 인공지능 보안 위협 4가지 - 3. Model Inversion Attack (1) | 2025.06.29 |
| 인공지능 보안 위협 4가지 - 2.Adversarial Attack 기법 (3) | 2025.06.29 |
| 인공지능 보안 위협 4가지 - 1. Poisoning Attack 기법 (1) | 2025.06.29 |
| Chain-of-Thought의 핵심 (3) | 2025.06.19 |