'전기 먹는 하마' AI…효율 높이기 경쟁

2024-05-26 27

'전기 먹는 하마' AI…효율 높이기 경쟁

[앵커]

인공지능, AI는 구동에 막대한 양의 전력을 필요로 해 소위 '전기 먹는 하마'라고도 불립니다.

AI 붐을 뒤쫓는 주요국들은 경쟁적으로 전력 확보에 나섰는데요.

동시에 국내 반도체 기업들은 반도체칩 효율 높이기에도 주력하고 있습니다.

보도에 임혜준 기자입니다.

[기자]

구글 검색에 평균 0.3Wh의 전력이 쓰일 때 생성형 AI챗 GPT는 그보다 10배에 가까운 2.9Wh이 전력이 필요한 것으로 조사됐습니다.

1개의 AI 모델 훈련에 필요한 전기는 일반 가정 100가구의 연간 전기 사용량을 초과한다는 추산도 있습니다.

고성능 AI 반도체 구동을 위해선 일반 반도체보다 훨씬 많은 양의 전력을 필요로 하는 겁니다.

생성형 AI가 '전기 먹는 하마'로 불리는 이유입니다.

AI 개발과 유지에 필수인 데이터센터 가동을 위해선 더 막대한 양의 전력이 소비됩니다.

국제에너지기구, IEA는 오는 2026년 데이터전력 사용량이 최대 1050TWh에 달할 것으로 내다봤습니다.

지난 2022년 전력 사용량이 460Twh였다는 점을 고려하면 4년 만에 두 배 이상 뛰는 셈입니다.

휘몰아치는 AI 열풍에 전력 소비량을 메울 에너지원에도 관심이 쏠리고 있습니다.

우선 안정적인 발전이 가능한 데다 설비 확충 기간이 대체 에너지보다 빠른 천연가스 사용이 늘어나는 추세입니다.

최근 해외보고서는 2030년 안으로 천연가스가 데이터센터 신규 전력 수요 중 절반 이상을 해결할 것이란 관측도 내놨습니다.

그러나 화석연료 의존도가 높아지는 셈이어서 가뜩이나 전 세계적으로 차질을 빚는 탄소 감축 계획에 역행한다는 비판이 제기됩니다.

"지금 당장은 편리할 뿐이지 (중략) 적어도 첨단 산업에 사용되는 에너지는 풍력이나 태양광 또는 원전과 같은 무탄소 에너지로 가야 에너지 흐름에도 맞다고…."

AI 산업에 소비되는 과도한 전력이 결국 탈탄소 시대 결정적 걸림돌로 작용하는 셈입니다.

이를 의식한 빅테크와 국내 반도체 기업들은 앞다퉈 '저전력' 즉, 반도체칩 효율성 높이기에 나섰습니다.

삼성전자는 네이버와 함께 추론용 AI반도체, '마하1' 개발에 박차를 가하는 중입니다.

'마하1'은 GPU와 메모리반도체 사이 병목현상을 줄일 수 있는 구조로 설계돼 전력 효율을 끌어올린 것이 특징입니다.

고대역폭메모리, HBM시장 선두주자로 자리매김한 SK하이닉스는 전력 효율성을 30%가량 끌어올린 차세대 제품 양산을 앞당기기로 했습니다.

"전력 소모를 줄인다는 것이 어떻게 보면 지금 현재 가장 큰 화두다. 지속 가능한 AI시대를 만들기 위해서는 결국 저전력의 AI칩이 필요하다…."

온디바이스 시장 등 미래 수요에 '고효율' '저전력'을 향한 기업들의 움직임은 더욱 가속화할 것이란 전망입니다.

연합뉴스TV 임혜준입니다. (junelim@yna.co.kr)

[영상취재기자 : 장동우]

#AI #반도체 #저전력 #데이터센터

연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23

(끝)

Free Traffic Exchange