KAIST2 뉴로모픽 컴퓨팅 기반의 초저전력 거대 언어모델 AI반도체 뉴로모픽 컴퓨팅 기반의 초저전력 ‘상보형-트랜스포머’ KAIST, 뉴로모픽 컴퓨팅 기반의 초저전력 거대 언어 모델 인공지능반도체 핵심기술 ‘상보형-트랜스포머’ 개발했다고 몇일전 기사를 통해 접했다. 삼성 28나노공정을 활용하여 GPT-2 거대 언어 모델을 400mW전력 소모로 성공적 구동하는 시물레이션을 통해 시연하였고, 이런 수치의 결과는 GPU(엔비디아 A100) 대비 소모전력은 625배, 칩 면적 41배 작은 인공지능 반도체 핵심기술 개발에 가장 큰 성과라고 알려졌다. 온디바이스 AI의 핵심인 초저전력·고성능 인공지능반도체를 뉴로모픽 컴퓨팅으로 구현한 것이 가장 큰 핵심이며, 400밀리와트 초저전력을 소모하면서 0.4초 초고속으로 거대 언어 모델을 처리할 수 있는 인공지능 반도체인 ‘상보형-트랜스포.. 2024. 3. 12. 대한민국 KAIST 연구진, ‘엔비디아 625배 효율’ AI 반도체 개발 KAIST 유회준 교수 연구팀, 뇌 모사 첨단기술로 초저전력 구현 국내 연구진이 초저전력으로 거대 언어모델을 0.4초만에 처리 가능한 인공지능(AI) 반도체 핵심기술을 세계 최초로 개발했다. 현존 최고의 엔비디아 GPU A100 대비 소모전력은 625배, 칩 면적은 41배 작게 만들어 효율을 극대화시켰다. 과학기술정보통신부는 유회준 KAIST 인공지능반도체대학원 교수 연구팀이 400㎽(밀리와트)의 초저전력을 소모하면서 0.4초 초고속으로 거대 언어 모델을 처리할 수 있는 인공지능 반도체인 ‘상보형-트랜스포머’를 삼성 28나노 공정을 통해 세계 최초로 개발했다고 7일 밝혔다. 연구팀은 다량의 GPU와 250와트의 전력소모를 통해 구동되는 GPT 등 거대 언어 모델(LLM)을 4.5㎜x4.5㎜의 작은 한 개.. 2024. 3. 7. 이전 1 다음 728x90