메뉴 검색
Top
메뉴 닫기

주소를 선택 후 복사하여 사용하세요.

뒤로가기 새로고침 홈으로가기 링크복사 앞으로가기
AI의 법률적, 윤리적 이슈 검토: 김형주 중앙대 교수, 법무법인 원 올바른 AI 활용을 위한 전문가들과의 질의응답 2025-12-30
KHRD info@khrd.co.kr

2026년 병오년丙午年 새해가 밝았다. 이때는 많은 사람과 조직이 새로운 각오로, 준비했던 변화와 혁신 계획을 시작한다. 그렇다면 HRD부서는 무엇을 해야 하는가. 관련해서 『월간HRD』는 다양한 배경과 생각을 가진 사람들이 모여 일하는 기업에는 고유의 언어, 문화, 운영체제(OS) 등의 역할을 하는 ‘시스템(System)’ 이 필수라는 점을 주목했다. AI가 기업의 일과 학습 패러다임을 바꾸고 있는 지금 HRD스탭들이, 조직 구성원들이 지금보다 효과적, 전략적, 생산적으로 일하고 학습하도록 하려면 더 나은 시스템 속에서 움직여야 한다. 이런 문제의식을 기준점으로 삼은 뒤 『월간HRD』는 일곱 갈래로 ‘AI 기반 교육체계(System) 혁신’을 향한 길을 모색해봤다.



PART I. SPECIAL FOUCS

AI 시대, HRD 시스템 설계 대전환: 개인 맞춤형 역량개발 전략


PART II. HRD STRATEGY

HRD STRATEGY 1 HRD 투자 효율성 극대화 방법

HRD SRTATEGY 2 AI 활용 역량 양극화 해소 방안


PART III. CASE STUDY

CASE STUDY 1 현대백화점그룹 인재개발원의 직무 AI ‘Hai’

CASE STUDY 2 화승코퍼레이션의 러닝 플랫폼 '사이버 연수원'


PART IV. TECH INSIGHT

AI가 바꾸고 있는 HRD스탭의 실무 전반


PART V. REGULAR ASK! HRD 현장 Q&A

HRD 현장에서 AI의 법률적, 윤리적 이슈 검토




PART V. REGULAR ASK! HRD 현장 Q&A

HRD 현장에서 AI의 법률적, 윤리적 이슈 검토



▲ 직장인이라면 각자의 일터에서 합리적이고 객관적으로 판단해야 하며, 책임 있게 행동해야 한다. 이런 생각과 행동은 생성형 AI를 활용하는 데 있어서도 동일하게 적용돼야 한다.


일터에서 생성형 AI를 통해 각종 콘텐츠를 만들어서 활용할 때 여러 자료 인용, 내용 검증, 데이터 활용 범위 등에서 많은 판단이 여전히 개인에게 맡겨져 있다. 그런 만큼 『월간HRD』는 생성형 AI를 업무에 활용하는 과정에서 어떤 법적·윤리적 쟁점을 마주하고 있는지 익명의 실무자가 질문하면, 그 질문에 관해 전문가들(김형주 중앙대학교 철학과 및 인공지능인문학연구소 교수, 법무법인 원 ESG센터장 오지헌 변호사 & 법무법인 원 AI팀장 오정익 변호사)가 답하는 현장 질의응답 코너를 마련했다. 합리적이고 객관적인 판단, 책임 있는 행동은 일터의 시작과 끝이다. 그런 만큼 이번에 준비한 질의응답이 HRD스탭들의 지혜로운 AI 활용에 도움이 되길 기대한다.



Q) 구성원들에게 AI 활용의 법적·윤리적 이슈와 가이드라인을 교육하라는 지시를 받았습니다. 관련해서 어떤 내용을 반드시 담아내고 강조해야 하는지 큰 틀을 짚어주세요.

김형주 교수: 현재 존재하는 윤리 가이드라인은 100개가 넘습니다. 구분을 하자면, 기업, 정부기관, 국제기구에서 윤리원칙을 앞다투어 만들어내고 또 업데이트하고 있습니다. 우선 어떤 기관의 구성원들인지에 따라 어떤 윤리 가이드라인을 교육할지가 정해질 것 같습니다. 이를테면 공직 기관일 경우 정부부처, 기업일 경우 카카오나 구글, 네이버, lG AI윤리 연구 센터 등의 가이드라인을 활용하는 것이 좋습니다. 왜냐하면 규제와 생산의 균형을 대부분 고려하지만 기업과 정부 기관은 각각 무게 중심을 조금씩 다르게 설정하고 있기 때문입니다. 범용적으로 활용할 수 있는 것은 2022년 우리나라 과기정통부에서 발표한 인간중심의 AI윤리 원칙일 것입니다. 단순히 원칙뿐 아니라 이에 부가적으로 발간한 자료집이 있는데 확인하는 것이 좋습니다. 윤리적 이슈는 원칙에 따라 상응하는 것을 골라 매치시키는 것이 좋습니다.


Q) AI를 일에 활용하는 데 있어 어떤 법적, 윤리적 부분을 유의해야 하는지 전문가가 아닌 AI에 질문할 수밖에 없는 상황일 때 어떤 질문들을 던지면 효과적일지요?

김형주 교수: 가장 이슈가 되는 것은 효율성, 정확성과 편향성 제거의 균형입니다. 기계적인 윤리적 입장에서 보면 편향성을 무차별적으로 제거하는 것이 중요하지만 그럴 경우 데이터 표본 집단의 기준이 무한히 확대되어 원하는 결과값을 얻지 못하는 경우가 있습니다. 그럴 경우 실질적 사실성과 효율성은 저해됩니다. 산업계에서 받아드릴 수 있는 편향성 제거와 공정성 원칙을 설득력있게 제시하는 것이 중요합니다. AI는 맥락을 명확히 제시해 주어야 좋습니다. 어떤 상황에서 어떤 윤리적 부분인지 구체적으로 제시해 주고 이를 윤리학자등이 도메인 지식을 갖고 평가하는 것이 필요합니다.