정보 수집

초거대AI 두뇌, AI반도체가 키운다 GPU넘어 NPU로

깐까망 2023. 3. 9. 20:18
728x90
반응형
SMALL

016년 이세돌 9단과의 바둑 대결에서 승리해 세상을 놀래켰던 알파고. 알파고를 승리로 이끈 주역은 딥러닝 기술을 구현하는 데 쓰인 그래픽처리장치(GPU)였다. 당시 알파고에는 1천920개의 CPU와 280개의 GPU가 사용됐다.

그리고 7년 뒤 세상을 뒤흔드는 또 하나의 AI '챗GPT'가 탄생했다. 챗GPT의 AI학습에는 무려 1만개가 넘는 엔비디아의 'A100' GPU가 사용됐다. GPU는 직렬 처리 방식을 이용하는 중앙처리장치(CPU)와 달리, 병렬 처리 방식으로 여러 개의 연산을 동시에 처리할 수 있어 대규모AI 연산을 처리하는 데 많이 쓰이고 있다.

이제는 한 번 더 도약의 시기가 다가왔다. 기업들은 GPU를 넘어 AI 특화 반도체인 신경망처리장치(NPU)를 초거대AI에 활용하기 위해 나서고 있다.

■ 맥북·갤S23·초거대AI '엑사원'·'KoGPT'에도 NPU 적용…"가격 GPU의 4분의 1"

그동안 AI에는 GPU가 많이 사용됐지만, 이제 기업들은 GPU가 아닌 NPU에 많은 기대를 걸고 있다.

GPU는 병렬 처리 방식으로, 그동안 직렬 처리 방식인 CPU의 한계를 대신해 주로 AI 개발에 활용돼 왔다. 그러나 GPU는 애초에 그래픽 처리 용도로 탄생했기 때문에 기업들은 보다 AI 연산에 특화돼 효율이 좋고 가격을 낮출 수 있는 NPU를 개발·사용하고 있다.

우리가 사용하고 있는 노트북, 스마트폰에도 이미 NPU는 사용되고 있다. 애플은 맥북에어에 실리콘 칩 'M2'를 탑재했는데, M2는 AI 연산에 최적화된 NPU인 뉴럴엔진이 M1 대비 속도가 40% 향상된 것으로 알려졌다.

최근 삼성전자가 출시한 갤럭시S23 시리즈에 들어간 모바일 AP에도 NPU가 쓰인다. 갤럭시S23 시리즈에는 퀄컴 스냅드래곤8 2세대 모바일 AP가 적용됐다. 삼성전자는 "AI의 핵심인 딥러닝 알고리즘을 담당하는 NPU의 성능이 전작 대비 40% 이상 개선됐다"며 "NPU 성능으로 사진 촬영 성능과 전력의 균형을 최적화했다"고 밝혔다.

갤럭시S23 시리즈에는 퀄컴의 갤럭시용 스냅드래곤8 2세대가 탑재됐다(사진=갤럭시 언팩 갈무리)

LG가 자체 개발한 초거대 AI 연구원 '엑사원'과 카카오브레인 'KoGPT'의 모델 학습에는 NPU의 일종인 구글이 자체 개발한 AI 반도체 텐서 프로세싱 유닛(TPU)이 사용됐다. TPU는 기존 GPU-CPU 조합 대비 15~30배 높은 성능을 갖추면서도, 전력 소비는 30~80배 적은 것으로 알려졌다.

엑사원은 클라우드 TPU를 도입해 AI 모델 학습에 소요되는 시간을 효과적으로 단축하고 더 효율적인 모델 학습 프로세스를 구축했다. 카카오브레인은 클라우드 TPU를 도입해 대규모 모델 학습 시 발생하는 네트워크 병목 현상을 해결하고 60억 개의 파라미터와 2천억 개 토큰에 달하는 한국어 데이터를 빠르게 처리했다고 밝혔다.

성능 면에서도 GPU보다는 AI 연산에 특화된 NPU를 활용하는 것이 좋지만, 비용 면에서도 기존 GPU를 사용하는 것은 초거대AI를 개발·서비스하려는 기업에게 큰 부담이다. KT클라우드 이태경 팀장은 "엔비디아의 완성형 장비와 같은 기존 고가의 GPU는 엔지니어의 기술 지원 비용까지 합쳐지면 장비 하나당 4억~5억 정도 한다"며 "아무나 그런 고가의 장비를 살 수 없으며, 매우 비싸고 데이터센터 또한 매우 많이 지어야 한다"고 기존 GPU를 사용하는 데 있어 기업들의 어려움을 설명했다. 이어 그는 "NPU를 쓰면 GPU의 4분의 1로 가격이 줄어들며, 전력량도 4분의 1, 5분의 1 수준이면 된다"고 설명했다.

■  AI반도체 국가 산업으로 키운다…2030년까지 총 8천262억원 투자

사진 = 이미지투데이

AI 시장이 떠오르면서 AI 서비스를 받치고 있는 인프라의 중요성이 대두되자 정부에서도 국산 AI반도체 개발에 뛰어들었다.

과학기술정보통신부는 지난 16일 세계 최고 수준의 초고속·저전력 국산 AI반도체 개발과 데이터 센터 적용을 통해 국내 클라우드 경쟁력을 강화하고, 국민들에게 향상된 AI 서비스를 제공하는 'K-클라우드 프로젝트'를 추진한다고 밝혔다. 정부는 이를 위해 올해부터 2030년까지 총 8천262억원을 투자, 국산 AI반도체를 3단계(NPU→저전력PIM→극저전력PIM)에 걸쳐 고도화한다는 계획이다.

과기정통부 전영수 정보통신산업정책관은 "오픈AI의 챗GPT와 같이 AI 기술이 비약적으로 발전하고 AI가 우리 일상 속으로 보다 폭넓게 확산되면서 AI 연산에 특화된 고성능·저전력 AI반도체의 중요성이 부각되고 있다"며 "K-클라우드 프로젝트를 통해 국산 AI반도체가 데이터센터의 저전력화 및 클라우드와 AI 서비스 비용 절감 부분에서 시장 경쟁력이 있다는 것을 실증하고, 향후 글로벌 진출도 가능한 성공 레퍼런스를 확보할 수 있도록 지원할 예정"이라고 말했다.

K-클라우드 프로젝트 사업 중 정보통신산업진흥원(NIPA)에서 전담하는 AI반도체 팜 구축 및 실증 사업에는 클라우드 기업, AI 반도체 기업, AI 서비스 기업·기관이 각각 2개 사 이상이 협력해 컨소시엄 형태로 참여하게 된다. 주관기관은 클라우드 기업이며, 지원 시 참여기업·기관 간 구체적인 협력 방안을 제시해야 한다.

이번 사업을 통해 국산 AI반도체를 기반으로 각 데이터센터당 총 연산용량 10PFLOPS 규모의 고성능 연산이 가능한 저전력 데이터센터가 구축될 예정이다. 이를 바탕으로 민간·공공 분야에서 각각 4건 이상의 AI서비스를 실증하며, 1차 시범서비스는 올 12월 제공될 예정이다.

■ 클라우드 기업-AI 반도체 기업 협력…GPU 시장에 도전장

KT클라우드 이태경 팀장.

기존의 GPU 시장은 개인용·기업용 모두 엔비디아가 독식해왔다. 기존 GPU 시장에서 엔비디아는 80%가 넘는 점유율을 차지하고 있다. KT클라우드 이태경 팀장은 "일상으로의 AI 접목이 가시권에 들어오면서 지금이라도 반도체가 기술 종속되지 않도록 자립해야 된다는 인식이 있어 왔고, GPU 대체재로서의 국산 AI 반도체에 대한 논의가 다년간 진행돼 왔다"고 설명했다.

국내 NPU 개발 업체로는 대표적으로 사피온, 퓨리오사, 리벨리온 3사가 주로 거론된다. 퓨리오사의 '워보이' NPU는 카카오엔터프라이즈의 기업용 통합 클라우드 플랫폼 '카카오 i 클라우드'에 적용됐다. '카카오 i 클라우드'는 워보이 NPU를 통해 딥러닝 서비스를 실시간으로 제공한다. 카카오엔터프라이즈는 현재 카카오 i 클라우드상에서 퓨리오사AI 워보이 NPU 카드 12장을 4개의 베어메탈 서버에 장착해 서비스하고 있으며, 연내에 워보이 NPU 카드 16장, 베어메탈 서버 10대를 추가할 계획이다.

SK텔레콤, SK스퀘어, SK하이닉스 등 3개 회사가 투자해 설립한 AI 반도체 기업 사피온은 올 하반기 기존 NPU(사피온 X220) 대비 4배 이상 성능을 끌어올린 'X330'을 출시할 예정이다. 사피온은 NHN클라우드와 협력해 지난 2021년부터 2022년까지 실증 사업을 진행했다. 패션 특화 AI서비스 '버츄얼 트라이온'에서 사피온 X220을 검증해, 기존 엔비디아 'T4' GPU보다 처리 속도가 5.1배 빠른 것으로 확인됐다.

리벨리온은 KT클라우드와 협력하고 있다. 상반기 출시 예정인 KT의 초거대 AI 서비스 '믿음'에는 언어처리에 특화된 리벨리온 AI 반도체 '아톰'이 탑재된다. 아톰은 엔비디아의 GPU와 비교했을 때 전력 소모량이 6분의 1 수준인 것으로 알려졌다. KT는 향후 GPU팜에 리벨리온과 제작한 AI 반도체를 접목할 예정이다. KT는 지난해 리벨리온에 300억원 규모의 전략 투자를 진행했다.

 

출처) https://zdnet.co.kr/view/?no=20230225162429

728x90
반응형
LIST