양춘승 한국사회책임투자포럼 상임이사
[에너지신문] 요즘 인공지능(AI)이 왕이다. 연구실에서 소수 개발자의 손안에서 놀던 인공지능이 눈 깜짝할 사이에 전 세계 기업 경영의 핵심으로 자리 잡았다.
금융, 의료, 물류, 제조업 등 거의 모든 산업에서 AI가 의사결정과 위험 관리, 성장 전략을 좌우하고 있다.
그러나 이러한 급격한 변화 속에서 종종 간과되는 질문이 있다. 바로 ESG, 즉 환경(Environment)·사회(Social)·지배구조(Governance)의 관점에서 AI를 어떻게 바라봐야 하는가 하는 점이다.
AI는 지속가능성 측면에서 엄청난 기회를 제공한다. 기업들은 AI를 활용, 배출량을 예측하고, 공급망 내 노동권 침해를 모니터링하며, 보이스피싱 같은 사기 행위도 신속히 탐지할 수 있다.
AI는 적절히 활용된다면 ESG의 세 영역 모두에서 긍정적 효과를 극대화할 수 있다. 탄소 발자국을 줄이고, 노동자 안전을 강화하며 지배구조의 투명성을 높이는 역할을 할 수 있을 것이다.
그러나 그 이면에는 숨겨진 위험이 도사리고 있다. 대규모 AI 모델을 학습·운영하는 과정에서 막대한 전력과 수자원이 소모된다.
최근 골드만삭스(Goldman Sachs) 연구소의 발표에 따르면, 데이터센터에 소요되는 전력의 40%는 재생 전력으로 충당할 수 있지만 나머지 60%는 화석연료인 천연가스에 의존해야 하고, 이는 2030년까지 연간 2억톤 이상의 탄소를 추가적으로 배출할 것이라고 한다.
또 다른 연구는 2040년까지 AI가 전 세계 온실가스 배출의 최대 15%를 차지할 수 있다고 경고한다. 어쩌면 기후변화 대응 측면에서 나라별로 데이터센터 건립을 제한하는 국제적 합의가 필요할지 모른다.
사회적 측면에서도 AI로 인해 대규모로 일자리가 사라질 가능성이 있고, 편향된 알고리즘으로 사람들 사이에 차별을 재생산하며 사회적 신뢰를 약화시킬 위험이 있다.
지배구조 측면에서도 경영자들이 불투명하고 무윤리적인 AI에게 자신들의 의사결정을 맡겨버린 결과 초래되는 무책임과 불투명은 피할 수 없다.
무엇보다 윤리적 이슈의 해결이 시급하다. 편향과 차별, 프라이버시와 데이터 보호, 딥페이크, 사이버 공격, 허위정보 확산 같은 AI의 악용 등은 민주주의와 사회의 안정에 직접적인 위협이 될 수 있기 때문에 윤리적 측면에서 AI를 통제할 국제적 대응 방안이 하루빨리 마련돼야 한다.
그러나 유감스럽게도 현행 ESG 프레임워크는 아직 이러한 AI의 잠재적 위험을 충분히 다루지 못하고 있다.
유럽연합(EU)의 AI 법안(EU AI Act)은 사회적 신용 점수제 같은 위험한 이용을 금지한 첫 규제이지만, 적용 범위가 제한적이고 기술 변화 속도를 따라가기 어렵다는 점, 그리고 윤리적·자발적 책임까지는 담보하지 못한다는 점에서 한계가 있다.
따라서 ESG에 충실한 기업이라면 단순한 규제 준수를 넘어, 책임 있는 AI 활용을 기업 전략의 핵심으로 삼아야 한다.
이를 위해서는 에너지 효율적인 모델을 우선적으로 선택하고, 오류를 방지할 인간 감독 체계를 갖추며, 데이터 투명성을 확보하고, 구체적이고 실행 가능한 내부 AI 정책을 마련해야 한다.
단순히 AI 정책을 선언하는 것만으로는 충분치 않으며, 이를 실질적으로 운영하고 인권 및 환경 목표와 정합성을 이뤄야 한다.
앞으로 ESG 공시 체계는 AI를 독립적 지표로 포함할 가능성이 크다. 그만큼 AI의 영향력이 크고 계속 확대되고 있기 때문이다. AI를 ESG 전략에 통합하지 못하는 기업은 규제 위반 리스크뿐 아니라 투자자·소비자·지역사회와의 신뢰에서도 뒤처질 수 있다.
결국 AI는 그 자체로는 지속가능성에 기여하지도 않고 비윤리적인 존재도 아니다. 우리가 어떻게 설계하고, 어떻게 활용하며 어떻게 규율하는가에 따라 AI의 성격이 달라진다.
ESG의 시각에서 본 AI는 위기이자 기회이며, 기술이 사람과 지구를 위해 봉사해야 한다는 오래된 원칙을 다시금 일깨워준다. 이제 다시 인간이 선택할 차례이다.
