아마존은 거대한 Cerebras 칩에 AI 모델을 배포할 계획입니다.
아마존과 Cerebras가 대형 언어 모델 가속화를 위해 힘을 합칩니다
Amazon Web Services(AWS)는 2026년 중반부터 스타트업 Cerebras Systems Inc.의 칩을 자체 Trainium 프로세서와 함께 사용하기 시작할 것이라고 발표했습니다. 회사 내부 자료에 따르면 이는 대형 언어 모델(LLM)의 실행 및 유지 관리를 위한 “최적의 조건”을 만들 수 있을 것으로 보입니다. 거래의 재무 세부 사항은 아직 공개되지 않았습니다.
실제 진행 내용
* AWS의 Trainium 3 칩이 사용자 요청을 처리하고 – “의미를 이해”합니다.
* 그 다음 Cerebras Wafer‑Scale Engine(WSE) 칩이 답변 생성을 담당합니다.
즉, 두 개의 전문 가속기가 함께 작동하여 LLM에 대한 추론 계산을 수행합니다.
> “다른 구성 요소 간의 상호작용은 일반적으로 프로세스를 느리게 합니다,”라고 AWS 부사장 Nafea Bshara가 말했습니다. – “하지만 우리는 더 빠르게 추론을 처리하는 칩을 사용함으로써 이점을 얻으려 노력하고 있습니다.”
이점은 특히 반응 속도가 중요한 상황에서 두드러집니다: 예를 들어 단계별 코드 작성이나 실시간 텍스트 생성 시입니다.
왜 중요한가
* 아마존은 가장 큰 클라우드 제공업체 중 하나이며 Nvidia GPU 제조사의 적극적인 사용자입니다. 현재 회사는 자체 AI 칩을 개발하여 데이터 센터 효율성을 높이고 고객에게 독특한 서비스를 제공하려고 합니다.
* Cerebras에 있어 AWS와의 협력은 대형 데이터 센터 거인과의 첫 번째 주요 계약으로, 잠재적 시장에서 브랜드 인지도를 높입니다. 이는 예정된 IPO를 앞두고도 중요합니다.
결론
AWS와 Cerebras는 대형 언어 모델을 위한 새로운 인프라를 공동 구축하고 있습니다: Trainium 3 칩이 요청을 처리하고 WSE가 답변을 생성합니다. 단독 서비스인 Trainium만으로는 비용이 더 저렴할 수 있지만, 결합 솔루션은 “시간이 돈”이라는 점에서 상당한 가속화를 약속합니다. 이는 아마존의 Nvidia 대형 고객 지위를 강화하고 동시에 회사 자체 AI 칩의 효율성을 높이는 데 기여합니다
댓글 (0)
의견을 남겨 주세요. 예의를 지키고 주제에서 벗어나지 말아 주세요.
댓글을 남기려면 로그인