[기고] 책임감 있게 인공지능을 활용하는 인텔의 AI 기술
[기고] 책임감 있게 인공지능을 활용하는 인텔의 AI 기술
  • 디지털경제뉴스
  • 승인 2022.09.15 17:07
  • 댓글 0
이 기사를 공유합니다

라마 나흐만 인텔 펠로우 겸 인텔 랩 인텔리전트 시스템 연구소 디렉터
라마 나흐만 인텔 펠로우 겸 인텔 랩 인텔리전트 시스템 연구소 디렉터
라마 나흐만 인텔 펠로우 겸 인텔 랩 인텔리전트 시스템 연구소 디렉터

[디지털경제뉴스] 인텔은 AI가 사람을 소외시키지 않고, 비윤리적으로 데이터를 활용하지 않으며, 인종 간 차별을 하지 않도록 책임감을 가지고 AI를 발전 시켜 나가고 있다고 강조한다. 인텔은 이 같은 노력을 총망라한 책임감 있는 AI 웹사이트를 지난 12일 론칭하고 책임감 있는 AI를 위한 이니셔티브, 제품 및 파트너십 등을 공개했다. 지난 몇 년간 다양한 관련 활동을 외부에 공개하기 위해 노력해온 인텔은 이번 웹사이트를 통해 책임감 있는 AI를 위한 전사적인 노력을 선보이며 ‘원 인텔(One Intel)’ 접근 방식을 확대했다.

위험을 줄이고 긍정적인 변화를 이끌기 위해 책임감 있게 인공지능을 활용하는 인텔의 AI 기술에 대한 내용을 라마 나흐만(Lama Nachman) 인텔 펠로우 겸 인텔 랩 인텔리전트 시스템 연구소 디렉터로부터 들어본다.

◆AI가 사람을 소외시키지 않고, 비윤리적으로 데이터를 활용하지 않으며, 인종 간 차별을 하지 않으려면 = AI는 우리의 삶과 일, 그리고 복잡한 문제를 해결하는 방법을 변화시키는 등 인간의 일상생활에서 중요한 부분으로 거듭났다. 신경 질환을 앓고 있는 사람들을 위한 음성 뱅킹 시스템부터 자율주행 차량이 더욱 안전한 주행을 할 수 있도록 지원하고 강수량 패턴과 인구 추세를 더욱 잘 이해하도록 돕는 연구까지, AI는 인간이 마주한 장애물을 극복하고, 더욱 안전한 사회를 만들며, 더 나은 미래를 건설하기 위한 해결책을 개발할 수 있도록 지원한다.

실제로 AI가 제공하는 실질적인 혜택에도 불구하고, 할리우드와 같은 영화계에서는 AI를 인류를 위협하는 존재로 묘사하기를 즐기고 있다. 이러한 공상과학 시나리오의 전개는 실제로 AI를 잘못 설계할 경우 인간에게 해를 끼칠 수 있다는 매우 당연하지만 현실적인 문제를 지각하기 어렵게 한다.

우리는 AI가 사람을 소외시키지 않고, 비윤리적으로 데이터를 활용하지 않으며, 인종 간 차별을 하지 않도록 부단히 노력해야 한다. 이는 AI 시스템 개발자들이 이미 인식하고 있으며 예방해야 하는 문제들이다.

인텔은 AI기술이 전 세계적으로 긍정적인 변화를 만들고, 올바른 도구를 제공해 사람들이 더 많은 일을 할 수 있도록 돕고, 지구상의 모든 사람들의 삶을 개선할 수 있는 잠재력을 가지고 있다고 믿는다. 인텔은 오랫동안 세계에서 가장 윤리적인 회사 중 하나로 인식되어 왔고, 이에 따르는 책임을 엄중히 받아들이고 있다. 인텔은 지난 2009년부터 인텔 글로벌 인권 원칙을 채택, 시행해오고 있으며, AI를 포함해 책임감 있는 제품을 만드는데 높은 기준을 적용하고 있다. 인텔은 AI 기술 개발과 관련한 윤리적 위험을 인식하고 있다. 더불어, 전 산업 분야에서 수많은 기업이 인텔 AI 기술을 활용해 혁신적인 발전을 이루어 나감에 따라 롤 모델이 되고자 노력하고 있다.

인텔은 제품 수명주기 전반에 걸쳐 AI 기술을 책임감 있게 발전시키기 위해 최선을 다하고 있다. 인텔은 책임있는 AI를 위해 AI의 오용을 방지하고, 내부 감독 및 제반 관리 절차 등 노력을 견지하고 있으며, 이러한 노력은 책임있는 AI 홈페이지에 포함돼 있다.

◆AI 프로젝트의 수명주기 전체에 걸쳐 엄격한 검토 과정 수행 = 인텔의 AI 자문 위원회(Responsible AI Advisory Council)는 AI 프로젝트의 수명주기 전체에 걸쳐 엄격한 검토 과정을 수행한다. 위원회는 인권, 관리 감독, AI 활용 이유, 보안, 안전 및 신뢰성, 개인 정보 보호, 형평성 및 포용성 등 6가지 핵심 영역에 대한 인텔의 윤리적 영향 평가를 통해 제품 및 프로젝트에 대한 검토 과정을 수행한다.

검토의 목표는 AI 프로젝트 내에서 잠재적인 윤리적 위험을 평가하고 이러한 위험을 가능한 빨리 완화하는 것이다. 더불어, 위원회 구성원들은 전체적인 일관성 및 규정 준수를 위해 AI 프로젝트 개발 팀을 위한 교육 및 피드백 등을 지원한다.

◆AI 알고리즘의 편향성, 도구 및 프로세스만으로는 해결 못해 = AI 알고리즘의 편향성은 도구 및 프로세스만으로는 해결할 수 없다. AI 기술은 다양한 배경과 의견 그리고 경험을 가진 많은 사람들에 의해 형성되어야 한다. 인텔은 AI 실무자들과 각각의 기술이 공정하고 포괄적일 수 있도록 노력한다. 다양한 배경의 사람들로 구성된 팀은 그렇지 않은 팀에 비해, 자칫 간과할 수 있는 부분에 대해서도 의견을 제시하고 우려를 표명할 수 있다.

인텔은 사회과학 연구 결과를 활용해 데이터, 문제 공식화 또는 모델링에서 편견이 발생할 가능성이 있는 상황 뿐 아니라, 현실 세계에서 피해를 끼칠 수도 있는 예상하지 못한 위험한 상황을 이해할 수 있도록 노력하고 있다.

더불어 인텔은 모든 AI 교육 프로그램에서 윤리적인 요소가 핵심 요소로 포함돼야 한다고 인식한다. 인텔은 AI 미래 인재 육성 프로그램(AI for Future Workforce Program) 등 디지털 시대를 준비하고자 하는 프로그램들을 통해 학생들이 AI 윤리 원칙을 접할 수 있도록 하며, 더욱 책임있는 AI 솔루션을 만드는 방법을 이해시키기 위해 노력한다. 인텔은 다양한 배경과 전문성을 가진 학생들을 보유하고 있는 지역 대학과도 적극적으로 협력하고 있다. 더불어, AI 등 신기술의 영향을 받은 다양한 배경을 가진 사람들과 교류할 수 있는 새로운 방법을 지속적으로 모색한다.

◆데이터 무결성, 개인정보보호 및 정확성 유지에 힘써 = 인텔의 보안 연구개발 팀은 안전한 AI 기술을 제공하고, 데이터 무결성, 개인정보보호 및 정확성을 유지하고자 노력하고 있다. 인텔은 생태계가 신뢰할 수 있는 AI를 구축할 수 있도록 하드웨어 및 소프트웨어에 걸친 혁신을 제공한다. 일례로, 인텔의 프라이빗 AI 연구소는 사람들이 개인정보를 더 잘 보호할 수 있는 방법을 알리는 것을 목표로 한다. 인텔의 연합 학습 및 openFL 연구는 민감한 데이터를 기반으로 유용한 AI기술을 개발하는 데 초점을 두고 있다.

더불어 인텔이 참여하고 있는 미 방위고등연구계획국(DARPA) GARD 프로젝트는 AI조작 여부를 검증하는 방법을 연구하고 있다. 마지막으로, 앰버 프로젝트(Project Amber)는 고객과 파트너가 엣지에서 클라우드까지 인프라를 더 잘 신뢰할 수 있는 방법을 제공한다.

최근 딥페이크를 둘러싼 많은 윤리적 우려가 제기됐다. 인텔은 딥페이크 탐지 기술 및 딥페이크에 활용된 원본 자료를 결정하는 도구를 인텔 제품에 통합하고, 이러한 기술을 고객이 자사 플랫폼에 도입할 수 있는 방법을 모색해왔다. 인텔은 딥페이크 탐지, 혹은 머신러닝 및 AI 활용 가짜 미디어 제작 또는 수정분야와, 콘텐츠의 타당성을 확인하는 미디어 인증 기술 등 두 가지 분야에 대한 연구를 진행해왔다.

◆인간과 AI 간 협업의 가능성 열어 = 빠르게 변화하는 분야에서의 기술 발전은 파트너 생태계와 산업 전반에 영향을 미친다. 따라서 인텔은 중요한 연구에 지속적으로 투자하고, 개인정보보호, 보안, 인간 및 AI 간 협업, 지속가능성 분야의 석학들과 협업하고 있다.

인텔은 인간과 AI 간 협업의 가능성을 열어두는 것이, 흥미로운 AI의 미래로 이어질 수 있다고 믿는다. 인텔은 이를 실현하는 데 필요한 역량을 개발, 내부적으로 설계 및 제조 공정에 적용하고 있다. 인텔은 자사 제품은 물론 산업 전반의 발전과 공통의 도전 과제를 해결할 수 있도록 인텔의 입장과 관행을 투명하게 공개하려고 노력한다. 인텔은 동료들로부터 배우고 윤리적, 도덕적 및 정보 보호 척도를 구축해 성공적인 AI 비즈니스를 구축할 수 있도록 인권 & AI 라운드테이블(Roundtable on Human Rights & AI), 인권을 위한 글로벌 비즈니스 이니셔티브(Global Business Initiative on Human Rights), 파트너십 온 AI(Partnership on AI), 성평등 구축을 위한 약속(Pledge to Build Gender-Fair) 등 포럼에 참석하고 있다.

◆AI, 아직 개척해야 할 부분이 많이 남아 = AI는 큰 진전을 이뤘지만 아직 개척해야 할 부분이 많이 남아있다. 위험을 감소하고 긍정적인 변화를 이끌어 내기 위해 AI을 사용하는 방법을 지속적으로 모색하고 있다. 인텔은 다각적 접근법을 통해 전문성을 심화하고 인간-AI 협업을 통해 인간의 잠재력을 증폭시키는 데 초점을 맞추고 있다. AI의 긍정적인 힘을 발휘하기 위해 인텔과 관련 업계의 지속적인 협력을 기대한다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.