GPT-4 및 Chat-GPT가 만들어낼 수 있는 놀라운 성과는 헤드라인을 비롯한 비즈니스 리더들의 마음을 사로잡았습니다.기업은 인공 지능 (AI) 을 통해 더 나은 제품, 서비스 및 내부 프로세스를 지속적으로 찾고 있지만 최종 목표를 달성하기 위해서는 이러한 기술의 용도가 구분되어야 한다는 점을 염두에 두어야 합니다.풍동 시뮬레이션, 전자 설계 검증, 맞춤형 챗봇, “디지털 트윈” 복합 시스템 시뮬레이션 또는 기타 사용 사례 등 AI는 산업 전반에 걸쳐 상상력을 불러일으켰습니다.그러나 출력이 현재 가장 큰 관심을 받고 있는 가운데 클라우드, 고성능 컴퓨팅 (HPC), 자동화 및 머신 러닝 (ML) 과 같은 기반 기술도 급증하고 있습니다.

클라우드의 영향

주요 조직은 지연 시간이 짧은 네트워크 및 스토리지 인프라를 갖춘 특수 CPU 및 GPU 기반 컴퓨팅 클러스터를 사용하여 수십 년 동안 HPC와 AI를 활용해 왔습니다.하지만 최근에는 퍼블릭 클라우드 공급업체가 높아진 성능 요구 사항을 충족하는 데 필요한 인프라 투자와 핵심 기술 발전을 이루면서 조직은 클라우드로 눈을 돌리고 있습니다.

사용자의 컴퓨팅 액세스가 작업 스케줄러와 온프레미스 용량에 의해 제어되었던 이전 모델과 달리, 클라우드 기반 모델에서는 사용자가 애플리케이션의 요구 사항을 정확히 충족하는 클러스터를 사용하여 작업할 수 있는 거의 즉각적으로 “대기 없이” 컴퓨팅에 액세스할 수 있습니다.코어 수가 많은 CPU, 대용량 메모리 풋 프린트 노드, 베어 메탈에 대한 액세스와 같은 요소로 인해 클라우드의 기능과 맞춤형 온프레미스 시스템의 기능 간의 격차가 좁혀졌습니다.

그러나 HPC/AI를 통한 클라우드 성공의 열쇠는 주요 퍼블릭 클라우드 제공업체의 기본 인프라를 진정한 고성능 구성으로 전환할 수 있는 탄력적인 클라우드 리소스와 관련된 소프트웨어 및 관련 전문 지식을 이용할 수 있다는 것입니다.클라우드 기반 모델에서 각 그룹은 CPU, GPU, 메모리 및 스토리지의 구성 및 조합이 서로 다른 클러스터를 가질 수 있습니다. 심지어 특정 퍼블릭 클라우드에서만 사용할 수 있는 특수 프로세서도 포함됩니다.

최신 클라우드 혁신 활용

클라우드에서 새로운 기술을 사용할 수 있게 되면 연구자와 데이터 과학자는 최신 성능 및 기능에 빠르게 액세스할 수 있는 이점을 누릴 수 있습니다.결국 비즈니스 가속화는 낮은 비용으로 더 나은 성과를 창출하는 것이며, 클라우드 기반 HPC/AI는 혁신이 일어나고 효율성이 달성되는 기능으로서 IT를 집중 조명하는 데 사용할 수 있는 기능으로 떠올랐습니다.

적절한 소프트웨어 및 서비스 지원이 제공되면 규모에 관계없이 모든 혁신 기업이 컴퓨팅 투자를 입증된 ROI와 긴밀하게 연계할 수 있는 “종량제” 모델을 통해 기존에는 대규모 조직에서만 사용할 수 있었던 기능을 빠르게 활용할 수 있습니다.

이러한 목표를 달성하기 위해 CIO는 퍼블릭 클라우드의 다양한 CPU 및 GPU 인스턴스 유형에 대한 컴퓨팅 인프라 및 사용량 할인 모델 모두에 대한 전문 지식을 갖춘 클라우드 서비스 파트너와 협력하기를 원합니다.겉보기에 사소해 보이는 인프라 변경으로 인한 비용 절감 효과가 상당하여 “좋은” ROI를 “최대” ROI로 전환할 수 있기 때문에 기본 기술을 파헤치는 것이 매우 중요할 수 있습니다.

예를 들어, 주요 퍼블릭 클라우드 제공업체 중 한 곳은 최근에 코어 수가 많은 최신 CPU, 대용량 메모리, 특수 고속 네트워크 상호 연결을 갖춘 노드를 기반으로 대규모 컴퓨팅 작업을 수행하는 사용자에게 매우 매력적인 가격으로 고도로 조정된 클러스터 지향 HPC 구성을 도입했습니다.적절한 워크로드 유형의 경우 이러한 유형의 사전 최적화된 구성을 식별하고 활용하는 것은 판도를 바꿀 수 있습니다.

인프라 및 배포 ROI 최적화

AI의 출력은 산업 전반에 걸쳐 판도를 바꾸고 있지만, 이는 수천 개의 프로세서를 계산한 결과입니다.결국 AI의 가치는 학습 데이터의 폭과 사용자에게 해답을 제공하는 속도, 대규모 모델을 학습하는 데 필요한 리소스, 그리고 이후에 결과를 산출하는 데 필요한 리소스 (“추론”이라고 함) 만큼만 우수하다는 점에 달려 있습니다.

AI 개발 프로세스를 시작할 때 조직은 교육 및 추론에 대한 요구 사항을 동시에 고려해야 합니다.일반적으로 훈련은 고도로 튜닝된 모델을 만들기 위해 다수의 강력하고 상호 연결된 GPU 기반 노드가 집합적으로 작동하여 클러스터 지향적으로 수행됩니다.추론을 수행하고 사용자에게 모델의 가치를 전달하는 작업은 일반적으로 개별 요청을 처리하기 위해 독립적으로 작동하는 덜 강력한 추론 노드로 구성된 대규모 뱅크를 통해 수행됩니다.

클라우드 기반 배포 환경은 사용자가 특정 워크로드에 대해 다양한 CPU 및 GPU를 기반으로 교육 및 추론 구성을 쉽게 만들고 테스트할 수 있는 잠재력을 제공합니다.GPU는 대규모 교육을 수행하는 데 적합한 경우가 많지만, 최신 세대의 CPU에는 성능 및 비용/ROI 측면에서 추론 워크로드에 탁월한 옵션이 될 수 있는 “GPU와 유사한” 기능이 내장되어 있습니다.또한 향후 차세대 프로세서가 도입될 때 클라우드의 온디맨드 특성 덕분에 전용 온프레미스 환경에서는 불가능했던 방식으로 신기술을 빠르게 평가하고 적용할 수 있습니다.

차세대 혁신을 위한 토대

인공 지능은 산업 전반에 걸쳐 혁신에 박차를 가했으며, 그 놀라운 성과가 주목을 받고 있습니다.그러나 클라우드 컴퓨팅, HPC, 자동화, 머신 러닝과 같은 기반 기술은 이러한 혁신에서 중추적인 역할을 합니다.클라우드 기반 인프라로의 전환은 AI의 접근성과 확장성을 높이는 중요한 이정표입니다.주요 기업들이 계속해서 HPC와 AI를 도입함에 따라 클라우드의 기술 발전과 향상된 데이터 모델링 및 관리가 더해지면서 업계는 무한한 AI 잠재력의 미래로 나아가고 차세대 혁신의 토대를 마련합니다.

Penguin Solutions는 AI 및 HPC 솔루션을 위한 신뢰할 수 있는 전략적 파트너가 될 수 있습니다.25년 이상의 HPC 경험, 7년 이상의 AI 인프라 설계 및 배포 경험, 2017년 이후 85,000개 이상의 GPU를 배포 및 관리한 결과, 당사는 기꺼이 도움을 드릴 준비가 되어 있습니다.

AI 인프라 전문가에게 문의하기 오늘 Penguin Solutions에서 AI 프로젝트 요구 사항에 대해 논의하십시오.

작성자 이미지

Phil Pokorny

Chief Technology Officer

Penguin Solutions의 최고 기술 책임자인 Phil은 기술 솔루션의 설계, 개발, 지원 및 비전에 대한 풍부한 엔지니어링 경험과 고객 통찰력을 제공합니다.

관련 기사

Server aisle

에서 전문가와 상담하세요
Penguin Solutions

Penguin에서 우리 팀은 고성능, 고가용성 HPC 및 AI 엔터프라이즈 솔루션을 설계, 구축, 배포 및 관리하여 고객이 획기적인 혁신을 달성할 수 있도록 지원합니다.

오늘 연락하셔서 인프라 솔루션 프로젝트 요구 사항에 대해 논의해 보겠습니다.

렛츠 토크