Last updated: Feb 24, 2024
- (Sep 2023) 루시아 130억 파라미터 크기의 모델을 AWS Inferentia2 액셀러레이터를 통해 사용할 경우 월 운영 비용을 기존 대비 최대 65%까지 절감 사례: 솔트룩스 inferentia2 적용 사례
- (Jun 2023) SK텔레콤 의 MLOps 파이프라인에 Inferentia 활용 사례:SK텔레콤 inferentia 적용 사례
- (Apr 2023) Inferentia 기본 개념 및 NVidia Trition 에서 Inferentia 모델 서빙 설명: 하이퍼커넥트의 AWS 기계 학습 추론 가속기 적용을 통한 모델 서빙 비용 절감 사례와 꿀팁
- (Oct 2022) Neuron 모델을 가지고 부하 테스트를 수행하여 GPU 모델과 비교하였습니다. 실험 결과 80%대의 높은 비용 절감: 하이퍼커넥트 inferentia 적용 사례