정책 · 자체기사

소셜섹터를 위한 AI 기본법 완전 해설

조회 19

Summary

2026년 1월 22일 전면 시행된 AI 기본법이 사회적기업, 협동조합, 중간지원조직에 무엇을 의미하는지 실무자 관점에서 정리했다. 고영향 인공지능 해당 여부 판단부터 NIPA AI 바우처 신청까지, 규제보다 지원을 먼저 챙기는 법.

So What?

대부분의 소셜섹터는 AI 기본법상 서비스 제공자가 아닌 이용자에 해당해 강제 규제 대상이 아니다. 핵심은 3가지: 내 조직이 AI 서비스 제공자인지 이용자인지 구분, NIPA AI 바우처(최대 2억원) 신청 자격 점검, 기초 AI 거버넌스 문서 1장 작성.

AI 기본법이란 무엇인가 — 소셜섹터를 위한 3분 해설

2026년 1월 22일, 「인공지능 발전과 신뢰 기반 조성 등에 관한 법률」(이하 AI 기본법)이 전면 시행되었다. 이 법은 대기업 IT 플랫폼만을 겨냥한 규제가 아니다. AI 기술을 활용하거나 AI 기반 서비스를 제공하는 모든 조직—사회적기업, 협동조합, 중간지원조직 포함—에 적용된다.

핵심 개념 세 가지를 먼저 파악해야 한다. 첫째, 고영향 인공지능(High-Impact AI)이다. 채용, 복지 수급 결정, 금융 심사처럼 사람의 삶에 중대한 영향을 미치는 AI 시스템을 말한다. 소셜섹터에서 서비스 대상자 선발이나 지원 우선순위 결정에 AI를 활용한다면 이 범주에 해당할 수 있다. 둘째, AI 영향평가다. 고영향 인공지능을 도입·운영하기 전에 사전 리스크 평가를 실시해야 한다. 셋째, AI 거버넌스다. 조직 내 AI 사용 원칙과 절차를 문서화하고 관리하는 체계를 의미한다.

시행 일정은 단계적으로 적용된다. 2026년 1월 22일 기준 주요 의무 조항이 발효되었고, 고영향 인공지능 관련 세부 고시는 2026년 하반기까지 순차 공표될 예정이다. 지금 당장 모든 의무가 확정된 것은 아니지만, 조직 내 AI 사용 현황을 파악하고 기초 문서를 준비해두는 것이 합리적이다.

우리 조직은 '제공자'인가 '이용자'인가

AI 기본법은 조직을 크게 두 유형으로 구분한다. AI 서비스 제공자는 AI 기술을 직접 개발하거나, AI 기반 서비스·제품을 외부에 제공하는 자다. AI 서비스 이용자는 기존 AI 도구(ChatGPT, Claude, 구글 Gemini 등)를 업무에 활용하는 자다. 이 구분이 의무의 범위를 결정한다.

소셜섹터 케이스별 분류 예시를 살펴보자. 사회적기업이 취약계층 상담을 위한 자체 AI 챗봇을 개발해 외부 사용자에게 제공한다면 제공자다. 고영향 인공지능 해당 여부 검토, AI 영향평가, 이용약관 내 AI 사용 고지 의무가 적용된다. 반면 같은 사회적기업이 보조금 신청서 작성에 ChatGPT를 쓴다면 이용자다. 이 경우 제공자 수준의 의무는 없지만, AI 결과물의 정확성 검증 책임과 개인정보 처리 주의 의무는 여전히 남는다.

중간지원조직이 지역 내 비영리단체에게 AI 진단 도구를 제공한다면? 이는 제공자에 해당한다. 협동조합이 내부 직원 교육에 AI 강의 플랫폼을 구독한다면? 이용자에 해당한다. 자체 AI 시스템 개발 여부, 외부 사용자에 대한 서비스 여부가 핵심 판단 기준이다.

NIPA AI 바우처 — 지금 신청할 수 있는가

정보통신산업진흥원(NIPA)이 운영하는 AI 바우처 지원사업은 소셜섹터가 직접 활용할 수 있는 가장 현실적인 지원책이다. 중소기업·스타트업 대상이지만, 사회적기업·협동조합·사회적협동조합도 신청 자격을 갖는다(매년 공고 기준 확인 필요).

지원 규모는 수요기업당 최대 2억 원(정부 지원 75% + 자부담 25%)이며, AI 솔루션 도입, AI 모델 개발, 데이터 구축 등에 사용할 수 있다. 신청 절차는 ①NIPA AI 바우처 포털 회원가입 → ②수요기업 신청서 작성(사업 목적, 도입 AI 솔루션 명세, 기대효과) → ③서류 심사 → ④발표 심사 → ⑤협약 체결 순이다.

소셜섹터 특이사항: 사회적기업 인증서, 협동조합 설립인가서 등 법인 자격 증빙이 필수다. AI 솔루션은 NIPA 사전 등록 공급기업 목록에서 선택해야 하며, 직접 개발보다는 검증된 솔루션 도입에 적합하다. 공고는 매년 3~4월 사이 발표되므로 NIPA 공식 홈페이지(nipa.kr) 알림 신청을 지금 해두는 것이 좋다.

AI 거버넌스 문서 1장, 오늘 시작하기

거버넌스 문서라고 하면 거창하게 느껴지지만, 실무에서 필요한 것은 'AI 사용 정책 1페이지'다. A4 한 장 분량으로 시작해도 충분하다. 다음 항목을 포함하면 된다: ①조직 내 허용 AI 도구 목록(예: ChatGPT Plus, Claude Pro) ②사용 금지 정보 유형(수혜자 개인정보, 미공개 재무정보, 타인 저작물 전문) ③AI 결과물 검토 및 최종 책임자 지정 ④AI 활용 사실 고지 기준(외부 발행 콘텐츠에 AI 보조 사용 시 명시 여부) ⑤정책 검토 주기(6개월 또는 연 1회).

실제 작성 예시: "본 조직은 업무 효율화를 위해 ChatGPT, Claude를 허용 AI 도구로 지정한다. 수혜자 식별 정보(성명, 연락처, 사례 내용)는 AI 도구에 입력하지 않는다. AI가 생성한 공문, 보고서는 담당자 검토 후 결재한다. AI 활용 현황은 분기별 팀 회의에서 공유한다." 이 네 문장만 있어도 최소한의 거버넌스 문서다. 조직장 서명과 시행일을 붙여 공유 드라이브에 저장하면 완성이다.

자주 묻는 질문 5가지

Q1. 우리 조직은 AI를 거의 안 쓰는데 AI 기본법이 해당되나요?
ChatGPT 등 외부 AI 도구를 사용하는 순간부터 '이용자'로서 적용 범위에 들어옵니다. 단, 이용자의 의무는 제공자보다 훨씬 가볍습니다. 개인정보 보호 원칙을 지키고, AI 결과물을 그대로 공식 문서로 사용하지 않는 것이 핵심입니다.

Q2. AI 영향평가는 반드시 외부 컨설팅을 받아야 하나요?
아닙니다. 고영향 인공지능에 해당하는 경우에만 의무이며, 내부적으로 체크리스트 방식으로 자체 수행도 가능합니다. 과학기술정보통신부가 배포한 자가 평가 가이드라인을 참고하세요.

Q3. 보조금 신청서나 홍보 자료에 AI를 쓰면 법적으로 문제가 있나요?
현재 법령상 AI 보조 작성 자체는 금지되어 있지 않습니다. 다만 허위·과장 내용이 포함된 경우 기존 법령(보조금법, 표시광고법)에 따라 책임을 집니다. AI 생성 내용을 반드시 사람이 검토하는 절차가 핵심입니다.

Q4. 소규모 비영리법인도 AI 거버넌스 문서가 필요한가요?
법적 강제 의무는 아직 소규모 조직에 직접 적용되지 않습니다. 그러나 후원자·수혜자 신뢰 관리, 향후 지원사업 심사 가산점 등을 고려하면 1장짜리 정책이라도 갖춰두는 것이 유리합니다.

Q5. AI 기본법 위반 시 처벌은 어떻게 되나요?
고영향 인공지능 관련 의무 위반 시 과태료 및 시정명령이 부과될 수 있습니다. 이용자 수준의 일반적 AI 활용은 현재 직접 처벌 조항이 없지만, 개인정보보호법 등 관련 법령 위반으로 이어질 수 있으니 주의가 필요합니다.

태그 #AI기본법 #정책 #소셜섹터 #AI바우처 #사회적기업
이 글 공유하기

댓글 (0)

아직 댓글이 없습니다. 첫 댓글을 작성해보세요!

관련 아티클