PR CENTER

PR센터

홈>PR센터>보도자료

보도자료

[GIGABYTE] GIGABYTE 서버를 통한 SupremeRAID™ BeeGFS™ 성능

2024.03.05

[GIGABYTE] GIGABYTE 서버를 통한 SupremeRAID™ BeeGFS™ 성능

      요약 Graid Technology 의 SupremeRAID™는   GPU 기반 가속을 사용하여 매우 높은 RAID 성능을 제공합니다. SupremeRAID™를 사용하면 ASIC 기반 하드웨어 RAID 및 CPU 기반 소프트웨어 RAID를 포함한 다른 RAID 제품에 내재된 성능 제한을 피할 수 있습니다. 이 문서에서는 SupremeRAID™가 고성능 컴퓨팅(HPC)용으로 개발 및 최적화된 병렬 파일 시스템인 BeeGFS 의 성능을 어떻게 향상시키는지 살펴봅니다  . StorageBench 및  IOzone을 사용하여 성능 측정을 수행했습니다 . StorageBench는 네트워크 성능과 관계없이 기본 파일 시스템 및 장치의 스트리밍 처리량을 측정하는 BeeGFS 벤치마크입니다. IOzone은 실제 작업 부하를 시뮬레이션하기 위해 광범위한 IO 작업을 테스트하고 전체 시스템에서 성능 병목 현상을 찾도록 설계되었습니다. 테스트는 2개의 스토리지 노드와 4개의 클라이언트 노드로 작동하는 GIGABYTE 서버를 사용하여 수행되었습니다. 조사 결과는 다음 페이지에 요약된 바와 같이 뛰어난 저장 공간과 BeeGFS 성능을 보여 주며, 이는 데이터 보호를 위해 SupremeRAID™를 선택하는 것이 성능을 극대화하는 매우 효과적인 방법임을 입증합니다. 1. 4개의 RAID 5 그룹으로 구성된 12개의 7GB/s SSD로 구성된 2세트. 2. 총 400G에 대한 4개의 100G 이더넷 링크.   원시 스토리지 성능을 측정하도록 설계된 BeeGFS StorageBench 벤치마크는 130.35GB/s의 인상적인 SupremeRAID™ 5 읽기 속도와 70GB/s의 쓰기 속도를 보여줍니다. 또한 StorageBench RAID 5 읽기 성능은 네트워크 병목 현상이 발생한 IOzone 벤치마크보다 읽기 및 쓰기 성능이 훨씬 높아 이론적인 성능 한계에 근접해 SupremeRAID™의 뛰어난 스토리지 성능을 보여줍니다. 네트워크 전송 오버헤드를 포함하는 실제 클라이언트 워크로드를 시뮬레이션하도록 설계된 IOzone 벤치마크도 마찬가지로 인상적입니다. 256개의 스레드로 읽기 및 쓰기 속도는 각각 45.10GB/s 및 42.97GB/s에 도달합니다. 중요한 것은 이 수치가 400G 네트워크의 이론적 한계(50GB/s)에 접근한다는 점입니다. 이는 SupremeRAID™가 4개의 100G 네트워크 링크로 구성된 400G 네트워크를 거의 완벽하게 활용할 수 있음을 의미합니다.     테스트 배경 하드웨어: 스토리지 노드(2개)• 서버: GIGABYTE  S183-SH0-AAV1  x 1• 프로세서:  Intel® Xeon® Platinum 8468H  48C 2.1GHz x 2• 메모리: Micron MTC20F2085S1RC48BA1 DDR5 32GB 4800MHz x 16• 네트워크 카드: ConnectX-5 Ex MCX556A-EDAT EDR x 1• SSD: SAMSUNG MZTL23T8HCLS-00A07 3.84TB x 16• RAID 컨트롤러: RAID 컨트롤러:  SupremeRAID™ SR-1010  x 1 하드웨어: 클라이언트 노드(4개)• 서버: GIGABYTE H242-Z10  x 4(4개- 노드 시스템)• 프로세서:  AMD EPYC 7663  56C x 2• 메모리: Micron HMA82GR7CJR8N-XN DDR4 16GB 3200MHz x 16• 네트워크 카드: ConnectX-5 Ex MCX556A-EDAT EDR x 1 소프트웨어: 스토리지 노드• 운영 체제: Red Hat Enterprise 8.8• 커널: 4.18.0-477.13.1.el8_8.x86_64• BeeGFS: 7.3.3• SupremeRAID™ 드라이버: 1.5.0• OFED: 5.8-2.0.3.0소프트웨어: 클라이언트 노드• 운영 체제: Red Hat Enterprise 8.8• 커널 : 4.18.0-477.13.1.el8_8.x86_64• BeeGFS: 7.3.3• SupremeRAID™ 드라이버: 1.5.0• OFED: 5.8-2.0.3.0• IOzone: 3-506.x86_64 소프트웨어: 클라이언트 노드 • 운영 체제: Red Hat Enterprise 8.8 • 커널: 4.18.0-477.13.1.el8_8.x86_64 • BeeGFS: 7.3.3 • SupremeRAID™ 드라이버: 1.5.0 • OFED: 5.8-2.0.3.0 • IO 영역: 3-506.x86_64     클러스터 아키텍처 네트워킹각 스토리지 노드에는 듀얼 포트 100G 네트워크 카드가 장착되어 있으며, 각 클라이언트 노드에는 단일 포트 100G 네트워크 카드가 장착되어 있습니다. 2개의 스토리지 노드와 4개의 클라이언트 노드는 모두 100G 스위치를 사용하여 상호 연결됩니다. 스토리지각 스토리지 노드에는 16개의 NVMe 드라이브가 장착되어 있으며, 그 중 8개는 CPU0에 있고 나머지 8개는 CPU1에 있습니다. CPU0에 위치한 단일 SupremeRAID™ SR-1010 RAID 컨트롤러는 16개의 NVMe 드라이브를 모두 관리합니다. 두 개의 MDS(메타데이터 서비스)가 설정되어 있으며 각각은 두 개의 드라이브로 구성된 RAID1 그룹에서 지원됩니다. 또한 각각 6개의 드라이브를 통합하는 2개의 RAID 5 그룹이 구성되었습니다. 각 RAID 5 그룹은 3개의 개별 OSS(객체 스토리지 서비스)를 위한 3개의 가상 드라이브를 생성했습니다. 전체적으로 클러스터는 4개의 MDS와 12개의 OSS로 구성됩니다.   프로필 테스트 BeeGFS StorageBench클러스터를 성공적으로 구성한 후 내장된 BeeGFS StorageBench 도구를 활용하여 NVMe 드라이브 및 RAID 컨트롤러의 성능을 측정했습니다. 평가 프로세스는 테스트 파일 구축을 목표로 하는 쓰기 테스트로 시작되었습니다. 이 절차에는 1M의 블록 크기와 64개의 스레드가 사용되었습니다. 또한 VFS 캐시의 잠재적인 영향을 우회하고 이후 스토리지 시스템의 실제 성능 기능을 공개하기 위해 --odirect 옵션을 통합했습니다.     쓰기 테스트가 완료되면 읽기 테스트 단계로 전환했습니다.     IOzone현실적인 워크로드에서 클러스터 성능을 평가하기 위해 IOzone을 활용하여 다양한 I/O 깊이의 4개 클라이언트 노드에서 I/O를 생성했습니다. 여기에는 각 스레드에 대해 1M 블록 크기와 16GB 파일 크기로 읽기 및 쓰기 워크로드를 모두 수행하는 것이 포함되었습니다. 또한 직접 I/O를 허용하도록 -I 옵션이 지정되었습니다.   테스트 결과 원시 스토리지 성능을 측정하도록 설계된 BeeGFS StorageBench 벤치마크는 RAID 5 보호 환경에서 인상적인 결과를 보여줍니다. 이 벤치마크 기간 동안 관찰된 읽기 및 쓰기 속도는 "BeeGFS StorageBench 결과 대 IOzone 결과"라는 제목의 차트에 설명된 대로 4개의 RAID 5 그룹에서 각각 130.35GB/s 및 70GB/s로 최고 기록되었습니다. StorageBench RAID 5 읽기 성능은 이론적 성능 한계에 근접하며 네트워크 병목 현상이 있는 IOzone 벤치마크보다 읽기 및 쓰기 성능이 훨씬 높아 SupremeRAID™의 뛰어난 스토리지 성능을 보여줍니다. 이와 대조적으로 IOzone 벤치마크는 네트워크 전송 오버헤드를 통합하여 실제 클라이언트 워크로드를 시뮬레이션합니다. 이 시나리오의 성능은 StorageBench 결과보다 낮지만 여전히 인상적입니다. 읽기 및 쓰기 속도는 256개의 스레드로 각각 45.10GB/s 및 42.97GB/s에 도달합니다. 중요한 것은 이 수치가 400G 네트워크(50GB/s)의 이론적인 한계에 접근한다는 점입니다. 이는 SupremeRAID™가 400G 네트워크(4 x 100G)를 거의 완벽하게 활용할 수 있음을 의미합니다. BeeGFS StorageBench 결과와 IOzone 결과 비교     다양한 스레드 수에 따른 IOzone 읽기/쓰기 성능 요약 요약하면 SupremeRAID™는 원시 스토리지 및 실제 작업 부하 시나리오에서 높은 성능을 제공합니다. BeeGFS StorageBench 결과에서 알 수 있듯이 SupremeRAID™는 RAID5 보호 하에서 매우 높은 스토리지 성능 수준을 달성합니다. 또한 IOzone 결과는 SupremeRAID™가 고속 네트워크 인프라를 최적으로 활용하면서 실제 클라이언트 작업 부하를 효율적으로 처리할 수 있음을 보여줍니다. GIGABYTE S183-SH0과 결합하면 밀도가 매우 높고 효율적인 병렬 파일 시스템 솔루션을 제공할 수 있습니다. 32개 베이가 모두 채워지면 1U당 최대 398.32TB를 제공할 수 있어 고성능 컴퓨팅(HPC) 및 인공 지능(AI) 애플리케이션에 이상적인 솔루션입니다. SupremeRAID™는 GIGABYTE S183-SH0과 함께 뛰어난 성능과 최대의 스토리지 효율성을 결합하여 HPC/AI 시나리오를 위한 최고의 선택으로 자리매김했습니다.     결론 Graid Technology의 SupremeRAID™는 GPU 기반 가속을 사용하여 매우 높은 RAID 성능을 제공합니다. SupremeRAID™를 사용하면 ASIC 기반 하드웨어 RAID 및 CPU 기반 소프트웨어 RAID를 포함한 다른 RAID 제품에 내재된 성능 제한을 피할 수 있습니다. SupremeRAID™ 소프트웨어 버전 1.5에서는 SSD 성능의 효율적인 활용이 향상되어 상당한 이점을 제공합니다. StorageBench 및 IOzone 벤치마크 테스트에서는 SupremeRAID™ 및 GIGABYTE 서버 사용 시 높은 스토리지 및 BeeGFS 성능을 확인했습니다. StorageBench 결과는 16개 SSD의 집합과 일치하는 스토리지 성능과 이론적 한계인 400G에 접근하는 BeeGFS 성능을 보여줍니다. BeeGFS에 SupremeRAID™ 및 GIGABYTE를 사용하면 다음과 같은 성능 이점을 얻을 수 있습니다. • 최대 130.35GB/s의 스토리지 성능.• 최대 45.10GB/s BeeGFS 성능.     배포 세부정보 모든 노드의 경우모든 서버에 RHEL 8.8을 설치합니다.네트워킹 설정1. 모든 서버에 OFED 패키지를 설치합니다.     2. 서버에서 InfiniBand 서브넷 관리자를 구성하고 시작합니다.     3. InfiniBand(IB) 상태를 확인합니다.     스토리지 노드 SupremeRAID™ 드라이버 설치 1. 사전 설치 프로그램과 설치 프로그램을 다운로드합니다.     2. 사전 설치 프로그램을 실행하여 필요한 패키지를 설치합니다.     3. 설치 프로그램을 실행하여 SupremeRAID™ 드라이버를 설치합니다.     4. SupremeRAID™ 서비스를 활성화하려면 라이센스 키를 적용하세요.     BeeGFS 패키지 설치 1. 모든 서버에 BeeGFS 저장소를 추가합니다.     2. BeeGFS 패키지를 설치합니다.     BeeGFS용 RAID 어레이 설정 1. SSD NUMA 위치를 확인합니다. 8개의 드라이브가 NUMA0에 있고 8개가 NUMA1에 있는지 확인하세요.     2. 16개의 NVMe 드라이브를 물리적 드라이브로 생성합니다.     3. 두 개의 RAID1 그룹과 두 개의 RAID5 그룹을 구성합니다.     4. 2개의 MDS 및 6개의 OSS용 가상 드라이브 생성     5. MDS(ext4) 및 OSS(xfs)에 적합한 파일 시스템으로 가상 드라이브를 포맷합니다.     BeeGFS 관리 서비스 설정     스토리지 노드에 여러 개의 BeeGFS MDS 및 OSS 설정1. 2개의 MDS 폴더와 6개의 OSS 폴더를 생성합니다.     2. beegfs-meta 구성 파일을 MDS 폴더에 복사합니다.     3. 각 MDS에 대해 beegfs-meta TCP/UDP 포트를 수정하여 포트 충돌을 방지합니다.     4. beegfs-storage 구성 파일을 OSS 폴더에 복사합니다.     5. 포트 충돌을 방지하기 위해 각 OSS에 대한 BeeGFS 스토리지 TCP/UDP 포트를 수정합니다.     6. 인터페이스 파일을 /etc/beegfs 폴더에 넣습니다.     7. BeeGFS 마운트 지점을 설정합니다.     8. MDS 및 OSS를 초기화합니다.     9. MDS 및 OSS 서비스를 시작합니다.     10. 방화벽의 포트를 엽니다.     11. 방화벽 서비스를 다시 로드합니다.     클라이언트 노드 BeeGFS 패키지 설치 1. 모든 서버에 BeeGFS 저장소를 추가합니다.     2. BeeGFS 클라이언트 패키지를 설치합니다.     BeeGFS 클라이언트 설정1. beegfs-client-autobuild.conf 파일에서 클라이언트 서버의 빌드 옵션을 구성합니다.     2. 클라이언트 커널 모듈을 다시 빌드합니다.     3. 클라이언트 서버에서 클라이언트 서비스를 초기화합니다.     4. BeeGFS 클라이언트 서비스를 다시 시작합니다.     BeeGFS 튜닝 객체 스토리지 서비스     메타데이터 서비스     고객     파일 시스템     참고자료 • BeeGFS 설치 가이드 • BeeGFS 다중 모드 구성 가이드 • BeeGFS 스토리지벤치 • IO존     소개       SupremeRAID™ SupremeRAID™ 차세대 GPU 가속 RAID는 기존 RAID 병목 현상을 제거하여 NVMe SSD의 성능과 가치를 최대한 활용합니다. PCIe Gen 3, 4, 5 서버를 위한 세계에서 가장 빠른 RAID 카드인 SupremeRAID™는 탁월한 성능을 제공하는 동시에 확장성을 높이고 유연성을 향상시키며 총 소유 비용(TCO)을 낮추도록 설계되었습니다. 단일 SupremeRAID™ 카드는 최대 28M IOPS 및 260GB/s의 성능을 발휘합니다. • 유연성 및 미래 대비 – 소프트웨어만을 사용하여 추가된 기능을 통해 비교할 수 없는 유연성을 제공합니다. • 세계 기록 성능 – 고성능 애플리케이션을 구동하는 속도를 제공합니다. • CPU 리소스 확보 - RAID 계산을 SupremeRAID™ GPU 카드로 오프로드합니다. • 플러그 앤 플레이 기능 – 케이블 레이아웃을 다시 구성할 필요 없이 열려 있는 PCle 슬롯에 추가할 수 있습니다. • 확장성이 뛰어난 애플리케이션 – 직접 연결된 NVMe SSD를 최대 32개까지 쉽게 관리할 수 있습니다. • 사용자 친화적인 관리 - 성능 향상을 위해 메모리 캐싱에 의존하지 않습니다.     BeeGFS 및 StorageBench ThinkParQ®에서 개발 및 설계한 BeeGFS 병렬 파일 시스템은 성능 지향 환경 및 작업 부하에 대해 고성능, 사용 편의성 및 간단한 관리 기능을 제공합니다. 일반적인 예로는 고성능 컴퓨팅, 인공 지능, 미디어 및 엔터테인먼트, 석유 및 가스, 생명과학 등이 있습니다. BeeGFS는 시중의 다른 병렬 파일 시스템보다 배포 및 관리가 더 쉽다고 여겨지는 경우가 많으며 StorageBench 스토리지 벤치마킹 도구가 포함되어 있습니다.     IO존 IOzone 종합 벤치마크는 읽기, 다시 읽기, 쓰기, 다시 쓰기 및 무작위 혼합을 포함한 다양한 작업을 사용하여 파일 시스템 성능을 테스트합니다. 테스트는 명령줄을 사용하여 지정된 옵션에 따라 수행되며 다양한 유형과 조합의 테스트 작업이 지원됩니다.

상세보기

[GIGABYTE] 체코 최대 검색 엔진은 GIGABYTE 솔루션을 기반으로 인프라를 구축합니다.

2023.12.29

[GIGABYTE] 체코 최대 검색 엔진은 GIGABYTE 솔루션을 기반으로 인프라를 구축합니다.

활기차고 성실한 세즈남 마스코트 크라스티 Seznam과 그들이 제공하는 서비스 Seznam.cz  는 체코 공화국의 인터넷 웹 포털이자 검색 엔진 리더입니다. Seznam의 비전은 모든 사용자를 위한 콘텐츠, 광고, 지식, 소셜 및 커뮤니케이션 플랫폼이 되는 것입니다. 주로 자사의 제품 혁신이 현재 및 미래의 경쟁업체를 상대로 성공하고 체코 온라인 시장에서 리더로서의 위치를 유지하는 데 도움이 될 것이라고 믿는 기술 회사입니다. 매월 최대 600만 명이 방문하는 Seznam의 메인 페이지에는 검색 엔진, 이메일 서비스, 뉴스, TV 프로그램, 일기예보 등이 포함되어 있습니다. 체코 공화국의 모든 인터넷 사용자 중 거의 절반이 Seznam.cz를 다음과 같이 설정했습니다. 그들의 홈페이지. 모든 제품과 서비스를 통해 Seznam은 체코 인터넷 사용자의 95%에 도달합니다.     체코 국경 밖의 세즈남 - 관광객을 위한 높은 가치의 전 세계 지도 서비스 Seznam이 2013년부터 개발해 온 서비스 중 하나는 Mapy.cz입니다. Google과 같은 외국 경쟁업체와 비교할 때 체코 애플리케이션은 커뮤니티 기반 지리 데이터베이스를 사용하여 고전적인 인쇄 지도처럼 보이는 지도를 만듭니다. 이 애플리케이션에서는 전 세계 개별 국가를 다운로드하여 오프라인으로 사용할 수 있습니다. 이 애플리케이션은 세계 지도를 볼 때뿐 아니라 경로를 계획하고 검색할 때에도 오프라인 모드에서 작동합니다. 모바일 애플리케이션에는 체코어 외에도 다양한 언어로의 현지화가 포함되어 있습니다. 국내외 자원봉사자 커뮤니티가 이들 언어로의 번역에 협력하고 있습니다. 최고 수준의 애플리케이션 활성 사용자 수는 400만 명을 넘습니다.체코 영토의 적용 범위는 자체 지도 데이터를 기반으로 하며, 나머지 세계는 프로젝트 OpenStreetMap 데이터에서 가져옵니다. 이 애플리케이션의 많은 기능에는 관광 및 교통 내비게이션과 자동차, 대중 교통, 자전거, 도보 및 기타 방법을 사용하는 경로 플래너가 포함됩니다. 이 애플리케이션에는 자체 설명이나 Wikipedia의 설명 및 사용자가 직접 업로드한 사진과 함께 많은 관심 지점이 포함되어 있습니다. 다른 글로벌 지도 앱과 달리 글로벌 관광 지도와 글로벌 겨울 지도가 특징으로, 겉모습은 고전적인 인쇄 지도와 비슷합니다. Mapy.cz로 여행 계획을 세우는 것은 쉽습니다. Seznam이 직면한 초기 하드웨어 문제 Seznam의 하드웨어 관리자인 Miroslav Bezdička는 이렇게 설명합니다. “우리 서비스의 수와 특성으로 인해 지속적인 작업을 담당하는 서버의 수가 점차 증가했습니다. 처음에는 잘 알려진 공급업체의 표준 랙 서버를 다양한 구성으로 사용했습니다. 약 10,000대의 서버 규모에 도달하고 가상화 및 컨테이너에 대한 수요가 엄청나게 증가하자 이 솔루션은 더 이상 적합하지 않았습니다.다양한 제조업체의 다양한 펌웨어의 복잡성과 다양한 제조업체의 서버 조정을 위한 단일 도구의 부족으로 인해 우리는 점차 기본적인 원격 관리 및 모니터링 기능만 사용하는 자체 도구를 개발하게 되었고, 이를 통해 보다 효율적으로 작업할 수 있었습니다. 우리의 모든 서버와 함께.“시간이 지남에 따라 우리는 서버 공급업체의 독점 도구로부터 독립했으며, 우리가 사용한 가상화와 함께 서버 구성 수를 줄일 수 있었습니다.“동시에 OCP(Open Compute Project)가 설립되었고, 이는 우리가 자체 하드웨어를 개발하도록 영감을 주었습니다. 우리의 경험을 통해 우리는 우리에게 필요한 기능이 무엇인지 정확히 알았고 서버를 시장에 판매하지 않을 것이기 때문에 이를 통해 우리의 정확한 요구 사항을 충족하는 최소한의 비용 효율적인 서버 설계를 개발할 수 있었습니다. 우리가 사용하는 대부분의 부품은 부품 제조업체에서 직접 공급되지만 가용성으로 인해 가능한 한 대체 소스 옵션을 선택하고 있습니다."     GIGABYTE 하드웨어가 제공하는 솔루션 Seznam은 현재 자체 서버 설계의 4세대를 실행하고 있습니다. 그리고 3세대부터 GIGABYTE의 마더보드를 사용해 왔습니다.Bezdička 씨는 다음과 같이 설명합니다. “GIGABYTE는 세계적으로 유명하고 입증된 컴퓨터 하드웨어 제조업체로서 고품질 제품을 제공합니다. 또한 개발 부서의 직접적인 탁월한 지원 덕분에 우리는 서버에서 사용하는 독점 인터페이스에 필요한 모든 정보를 보유하고 있습니다. 사용자 정의 수정 옵션이 있지만 가능한 한 표준 구성 요소를 사용하고 GIGABYTE와 협력하여 이러한 표준 구성 요소의 필수 기능 개발에 참여하려고 노력합니다. 우리가 표준 구성 요소를 사용한다는 사실은 유연하고 빠른 펌웨어 업데이트를 보장합니다.”현재 GIGABYTE 하드웨어를 기반으로 하는 5,000개 이상의 서버는 모든 Seznam 애플리케이션에 안정적인 고성능 플랫폼을 제공합니다.GIGABYTE의 EMEA 지역 수석 영업 이사인 Thomas Yen은 다음과 같이 말합니다. “Seznam을 파트너로 삼아 컴퓨팅 인프라를 구축할 수 있는 최신 서버 기술을 제공하게 된 것을 자랑스럽게 생각합니다. Seznam 인터넷 서비스의 성공은 GIGABYTE가 고객이 성공적으로 구축하고 개선할 수 있는 안정적인 고품질 서버 플랫폼을 제공한다는 것을 입증합니다. 또한 적절한 인력과 자원이 함께 모여 놀라운 제품을 만들 때 대규모 국제 기업과 경쟁하는 것이 여전히 가능하다는 것을 보여줍니다. 우리는 Seznam이 더욱 성장하고 성공할 수 있도록 돕기 위해 Seznam과의 관계를 지속하는 데 전념하고 있습니다.” 체코 인터넷 사용자는 GIGABYTE 서버로 구축된 Seznam의 데이터 센터를 사용합니다. GIGABYTE 하드웨어를 기반으로 한 Seznam 인프라 Seznam의 자체 맞춤형 설계 서버에 통합된 GIGABYTE 서버 마더보드는 검색 엔진 인프라를 완벽하게 실행할 수 있는 지속 가능성과 비용 효율적인 솔루션을 제공합니다. 맞춤형으로 설계된 서버는 AMD EPYC™ 플랫폼용 GIGABYTE 서버 마더보드를 기반으로 합니다.Seznam은 자체적으로 맞춤 설계된 서버 외에도 웹 포털 인프라에 GIGABYTE 서버를 통합했습니다. 이러한 서버는 일상적인 서비스를 간소화하고 사용자에게 최적화된 검색 경험을 제공하기 위해 다양한 사용 사례를 제공합니다.서버 마더보드와 서버는 AMD EPYC™ 7003 시리즈 프로세서에서 실행되며 탁월한 성능, 효율성 및 확장성을 제공합니다. AMD EPYC™ 7003 시리즈 프로세서는 메인스트림 데이터 센터의 성능과 효율성에 대한 표준을 설정했습니다. DDR4 및 PCIe Gen4 기술에 대한 광범위한 애플리케이션 검증을 수행하고 데이터 센터 문제에 대한 성능이 뛰어나고 비용 효율적인 솔루션을 찾는 고객은 AMD EPYC™ 7003 프로세서 기반 서버에서 엄청난 가치를 찾을 수 있습니다. 7nm 프로세스 노드를 기반으로 하는 AMD EPYC 7003 시리즈 프로세서는 최대 64개의 코어와 128개의 스레드를 지원합니다. 또한 최대 3200MHz의 소켓당 최대 4TB DDR4 메모리를 지원합니다. CPU와 드라이브 또는 가속기 간의 높은 처리량을 위해 단일 소켓 시스템에서 128개의 고속 PCIe 4.0 레인을 사용할 수 있고 듀얼 소켓 시스템에서 최대 160개의 레인을 사용할 수 있습니다.그러나 Seznam은 EPYC™ 7003 플랫폼이 지원하는 최대 구성을 사용하지 않습니다. 일반적인 구성은 512GB 메모리와 24코어(48스레드) 프로세서입니다.Seznam의 인프라는 GIGABYTE의 R 시리즈 및 G 시리즈(GPU) 서버의 견고한 기반 위에 구축되었으며, 각 서버는 시스템 내에서 서로 다른 목적을 수행하도록 세심하게 구성되었습니다.스토리지 노드:GIGABYTE  R271-Z00은  스토리지 목적을 위한 견고한 구성 요소입니다. 컴팩트한 단일 소켓 설계를 갖춘 이 서버는 AMD EPYC 7003 시리즈 프로세서에서 최대 64개의 CPU 코어를 수용합니다. 스토리지 측면에서는 8개의 2.5" SATA/SAS 및 2개의 2.5" PCIe 3.0 NVMe 핫스왑 가능 베이를 자랑하여 유연하고 확장 가능한 스토리지 솔루션을 보장합니다.GPU 노드:고도의 병렬 컴퓨팅 작업 부하를 위해 설계된 GIGABYTE  G242-Z10 2U 폼 팩터에 탑재된 GPU 최적화 서버입니다. 해당 아키텍처는 추가 로우 프로파일 슬롯 2개와 OCP 2.0 메자닌 카드 1개와 함께 GPU용 최대 4개의 PCIe Gen 3.0 x 16 확장 슬롯을 지원합니다. 이 구성은 상당한 병렬 처리 기능을 촉진할 뿐만 아니라 네트워킹 또는 스토리지 확장의 통합도 허용합니다. G242-Z10은 전면에 3.5인치 SATA 핫스왑 HDD 베이 4개와 후면에 2.5인치 NVMe/SATA SSD 베이 2개를 통합하여 효율성을 더욱 향상시킵니다. 이는 GPU 가속 컴퓨팅을 위해 미세 조정된 시스템으로, AMD EPYC 프로세서가 탑재된 듀얼 소켓 구성에서 단일 소켓으로 이동하여 간접비를 전략적으로 줄입니다.집약적인 GPU 컴퓨팅과 최신 PCIe 기술을 지원하도록 맞춤 제작된 GIGABYTE  G493-ZB0은  다재다능함이 돋보입니다. 이 서버는 8개의 이중 슬롯 PCIe 5.0 x16 GPU를 갖추고 있으며 다양한 네트워킹 옵션과 스토리지 구성을 제공합니다. Seznam은 G493-ZB0 및  NVIDIA H100 Tensor Core GPU 의 성능을 활용하여  언어 모델을 위한 강력한 독립형 슈퍼컴퓨터를 구축했습니다. 이 구성은 NVIDIA H100 GPU의 모든 기능을 최적화된 NVIDIA AI Enterprise 및 NVIDIA HPC 소프트웨어와 결합하여 과학 시뮬레이션, 데이터 분석 및 AI 애플리케이션에서 비교할 수 없는 성능을 제공합니다.전반적으로 Seznam이 GIGABYTE 서버 제품을 전략적으로 사용하는 것은 최첨단 기술에 대한 헌신을 강조하여 특정 작업에 맞게 각 구성 요소를 최적화하고 고급 컴퓨팅 요구 사항에 맞는 강력한 인프라를 종합적으로 형성하는 것입니다.     결론 혁신적인 하드웨어 솔루션을 제공함으로써 Seznam과 GIGABYTE는 지속적으로 협력하고 경쟁력을 유지하면서 최대 성능과 안정성에 도달할 수 있는 최적의 플랫폼을 만들고 있습니다. 개발 및 구현의 여러 단계를 통해 Seznam은 고객에게 시장을 선도하는 서비스를 제공할 수 있습니다.

상세보기

[GIGABYTE] 의료 및 의료 산업에서 AI를 활용하는 방법

2023.10.25

[GIGABYTE] 의료 및 의료 산업에서 AI를 활용하는 방법

의료 및 의학 분야에서 일하고 계시다면 잠시 시간을 내어 인공 지능이 이 분야에 어떻게 새로운 기회를 가져왔는지, 그리고 그로부터 이익을 얻기 위해 사용할 수 있는 도구에 대한 심층 분석을 살펴보세요. 이 기사는 GIGABYTE Technology가 진행 중인 "Power of AI" 시리즈의 일부입니다. 이 시리즈는 최신 AI 동향을 조사하고 업계 리더들이 어떻게 이러한 활기 넘치는 패러다임 전환의 선두에 설 수 있는지 자세히 설명합니다.     소개 인공지능(AI)은 전 세계적으로 의료를 크게 향상시킬 수 있는 잠재력을 가지고 있습니다. 주된 이유는 현재 환자들이 적시에 의료 서비스를 받지 못하는 경우가 많기 때문입니다. 질병의 증상이 잘못 진단될 수도 있고, 개인의 병력을 고려한 맞춤형 치료가 필요할 수도 있습니다. 의료진은 업무에 푹 빠져 환자에게 충분한 주의를 기울이지 못할 수도 있습니다. 환자가 자신의 건강을 어떻게 관리하는지도 '블랙박스'다. 의사는 상담 후 환자의 행동을 통제할 수 없기 때문이다. 선진국의 인구가 노령화됨에 따라 의료 서비스의 품질을 향상시키기 위해서는 기계 학습(ML) 및 컴퓨터 비전과 같은 AI 기반 기술을 사용하는 것이 필수적입니다.자료:인공 지능(AI)이란 무엇입니까?머신러닝(ML)이란 무엇입니까?컴퓨터 비전이란 무엇입니까?     AI는 의료 산업에서 다양한 방식으로 활용될 수 있습니다. 단순화를 위해 "진단"과 "치료"라는 포괄적인 용어를 사용하여 두 가지 범주로 구분할 수 있습니다.진단은 질병의 징후를 최대한 빨리 발견하는 것입니다. 이를 위해 의사에게는 올바른 결정을 내리는 데 도움이 되는 AI 도구와 환자에게 더 많은 시간을 할애할 수 있는 편의성이 필요합니다. 치료는 환자를 어떻게 치료하고 돌보는가에 관한 것입니다. AI로 강화된 맞춤형 의료는 질병을 보다 효과적으로 치료할 수 있으며, 원격 모니터링 및 원격 의료 서비스는 회복 과정에서 환자를 도울 수 있습니다. 마지막으로, 인공지능과 고성능 컴퓨팅(HPC)을 활용하면 신약 개발이 더 빠르고 안전하며 정확해질 수 있습니다.인류 역사상 AI가 우리의 웰빙을 돌볼 수 있는 시대가 다가오고 있는 만큼, 글로벌 헬스케어 AI 시장이 아직 초기 단계에 있다는 점을 이해하는 것이 중요합니다. 흥미롭고 새로운 혁신은 병원에 가는 것이 무엇을 의미하는지에 대한 우리의 견해를 바꿀 수 있지만, 우리의 안전과 개인 정보를 보호하기 위해 규칙과 규정도 마련되어야 합니다. 환자 데이터의 사용은 환자 개인 정보 보호에 대한 법률 및 제한 사항의 범위 내에서 이루어져야 한다는 것은 말할 필요도 없습니다. 혁신적인 서비스는 관련 당국이 정한 모든 법적, 전문적, 윤리적 규정 준수 표준을 준수해야 합니다.다음 섹션에서는 진단 및 치료를 위한 AI 애플리케이션을 살펴보겠습니다. 또한 이러한 세계적인 추세를 활용하는 데 도움이 될 수 있는 서버 하드웨어 및 소프트웨어 솔루션을 소개합니다.리소스:고성능 컴퓨팅(HPC)이란 무엇입니까?서버란 무엇입니까?   진단: 의료 분석은 더 빠르고 정확하게 질병의 징후를 감지합니다. 의료 분석은 질병의 일반적인 지표를 정확히 찾아내기 위해 과거 의료 데이터를 조사하는 것을 의미합니다. 이는 의사가 더 정확하고 효율적으로 질병을 진단하는 데 도움이 될 뿐만 아니라 오래된 의료 기록에서 가치를 얻는 좋은 방법이기도 합니다. 대부분의 데이터는 컴퓨터 단층촬영(CT) 스캔, 엑스레이, 초음파, 자기공명영상(MRI) 등 의료 영상을 통해 수집되므로 AI가 의료 영상과 함께 작동하도록 교육하면 의료 분석에 도움이 될 것입니다. 팔.일반적으로 AI는 수십억, 심지어는 수조에 달하는 매개변수를 포함하는 레이블이 지정된 의료 이미지의 거대한 라이브러리로 구성된 입력을 통해 훈련됩니다. 딥 러닝이라는 프로세스를 통해 AI 모델은 자신이 보고 있는 내용에 대해 "추측"한 다음 답변을 확인합니다. 시간이 지남에 따라 모델이 데이터 매개변수에 할당하는 "가중 점수"는 매우 정확해져서 매번 정확한 추측을 하게 됩니다. 즉, 의료영상에서 질병의 증상을 인식하는 방법을 학습한 것입니다.AI는 방대한 데이터 세트를 학습하고 많은 데이터가 그래픽 형식이기 때문에 의료 분석에 AI를 주입하려면 최신 그래픽 처리 장치(GPU)를 사용하여 병렬 컴퓨팅에 참여할 수 있는 서버가 권장됩니다. GIGABYTE Technology의  G-시리즈 GPU 서버를 사용  하면 광범위한 고급 GPU 제품에 액세스할 수 있습니다. 예를 들어, NVIDIA 인증  G593-SD0  GPU 서버는 HGX™ H100 8-GPU 컴퓨팅 모듈을 통합하여 시장에서 가장 강력한 AI 교육 플랫폼 중 하나를 만듭니다. GIGABYTE 서버는 OAM(OCP Accelerator Module) 사양을 따르는 최첨단 GPU 가속기인 AMD Instinct™ MI300X도 지원합니다. 또 다른 흥미로운 옵션은 AI 및 HPC 워크로드용으로 특별히 설계된 "CPU + GPU" 패키지입니다. 귀하의 옵션에는 AMD의 엔터프라이즈급 APU(가속 처리 장치) 제품인 AMD Instinct™ MI300A와 GIGABYTE의 H223-V10 및 H263-V11  H-  시리즈  고밀도  서버 에서 사용할 수 있는 NVIDIA Grace Hopper™ Superchip이 포함됩니다 .최첨단 하드웨어 외에도 GIGABYTE의 투자 회사인 MyelinTek Inc.는  NVIDIA MONAI와 같은 의료 AI 개발을 위한 인기 있는 딥 러닝 프레임워크를 통합한 "MLOps 플랫폼"인 MLSteam DNN 교육 시스템을 제공합니다. 라벨링 도구 및 이미지 프로그램과 같이 의사 및 기타 의료 서비스 개발자와 협력한 광범위한 경험을 바탕으로 MyelinTek이 엄선한 도구입니다. GIGABYTE 및 MyelinTek과 협력하면 기록적인 시간 내에 AI가 탑재된 토털 솔루션을 설정하는 데 도움이 될 수 있습니다.리소스:AI 훈련이란 무엇입니까?딥러닝이란 무엇인가요?병렬 컴퓨팅이란 무엇입니까?GPU(그래픽 처리 장치)란 무엇입니까?OCP란 무엇입니까?MLOps란 무엇인가요?   진단: AI 지원 상담으로 효율성이 향상되고 행정 업무가 가벼워집니다. AI 지원 상담의 이점은 의사가 사전 훈련된 모델을 사용하여 AI 추론에 참여하고 의료 이미지를 실시간으로 분석할 수 있다는 것입니다. 자연어 처리(NLP)의 발전으로 상담 중에 직원이 전자 건강 기록(EHR)을 생성하는 데 도움이 되므로 관리 부담이 줄어들 뿐만 아니라 데이터 검색 및 분석이 쉬워집니다. 그 결과 효율성이 향상되고 환자가 필요한 만큼 충분한 관심을 받을 수 있게 되었습니다.AI 워크로드의 크기에 따라 권장되는 서버 솔루션은 중앙 집중식 마이크로 데이터 센터 또는 서버 룸 내에 수용되는 특수 AI 추론 플랫폼일 수 있습니다. 또는 진료실에 배치할 수 있는 워크스테이션. 첫 번째 사용자 환경의 경우 GIGABYTE는   2U 섀시에 16개의 AMD Alveo™ V70 카드로 구성된 업계 최고의 초고밀도 구성을 특징으로 하는 G293-Z43 GPU 서버를 권장합니다. Alveo™ V70은 외부 메모리에 의존하지 않고 AI 모델의 레이어 간에 데이터를 전달할 수 있는 적응형 데이터 흐름 구조를 사용하는 AMD의 XDNA™ 아키텍처를 기반으로 합니다. 그 결과 성능과 에너지 효율성이 향상됩니다.두 번째 시나리오의 경우, GIGABYTE는   엔터프라이즈급 서버의 컴퓨팅 능력을 귀하의 책상에 직접 제공하는 포괄적인 W 시리즈 타워 서버/워크스테이션 솔루션 라인을 보유하고 있습니다. 예를 들어,  W771-Z00은  AMD Ryzen™ Threadripper™ PRO 프로세서에서 실행되며 최대 7개의 GPU 확장 카드 또는 4개의 이중 폭(DW) 가속기를 지원합니다. 이는 상담 중에 실시간 AI 추론을 가능하게 하는 데 충분한 처리 능력입니다. 추론 결과는 AI 모델을 재교육하고 추가로 최적화하는 데 사용될 수 있으므로 AI 지원 상담과 의료 분석 간의 선순환을 완성할 수 있습니다.GIGABYTE 및 MyelinTek의  MLSteam DNN 교육 시스템을  사용하여 NLP 및 LLM(대형 언어 모델) 애플리케이션을 지원할 수 있습니다. 환자 데이터는 민감하고 기밀로 유지되어야 하기 때문에 의료진은 공개적으로 이용 가능한 생성 AI 서비스를 사용하지 못할 수도 있습니다. 자체 AI 챗봇을 호스팅하려는 병원과 진료소를 위해 GIGABYTE와 MyelinTek은 AMD ROCm 또는 NVIDIA CUDA와 같이 고객이 선택한 GPU 가속 소프트웨어 플랫폼에 대해 BLOOM과 같은 인기 있는 오픈 소스 LLM을 최적화하는 데 도움을 줄 수 있습니다. 간단히 말해서, 우리는 귀하가 번거로움 없이 AI 지원 의료 서비스 제공을 시작할 수 있도록 귀하의 하드웨어와 소프트웨어가 잘 작동하는지 확인합니다.리소스:AI 추론이란 무엇입니까?자연어 처리(NLP)란 무엇입니까?데이터 센터란 무엇입니까?서버룸이란 무엇입니까?   진단: 요약 환자가 필요한 치료를 받기 전에 의사는 적시에 정확한 진단을 내려야 합니다. AI는 과거 의료 데이터(예: 의료 이미지)를 "연구"하고 더 빠르고 정확하게 질병의 증상을 인식하는 방법을 학습함으로써 의료 분석에 사용될 수 있습니다. 이러한 AI 모델은 상담 중에 프로세스를 더욱 효율적이고 효과적으로 만들기 위해 사용될 수 있습니다. 또한 AI는 행정 업무를 줄이고 즉시 EHR을 생성하여 의사가 환자와 더 많은 시간을 보낼 수 있도록 하는 동시에 향후 의료 분석에 사용할 수 있는 새로운 디지털 데이터를 생성할 수도 있습니다.  AI를 의료 분석에 주입하기 위해 GIGABYTE Technology는 시장에서 가장 진보된 처리 장치를 사용하여 AI 훈련을 가속화할 수 있는완전한  AI 서버 포트폴리오를 제공합니다. 예를 들어, GIGABYTE의 G593 시리즈는 AMD Instinct™ MI300X 또는 NVIDIA HGX™ H100 8-GPU 컴퓨팅 모듈을 지원할 수 있어 이러한 서버를 가장 강력한 AI 교육 플랫폼으로 만들 수 있습니다. GIGABYTE 서버는 또한 CPU와 GPU를 AI와 HPC에 최적화된 하나의 패키지로 결합한 새로운 종류의 칩인 최신 NVIDIA Grace Hopper™ Superchip 및 AMD Instinct™ MI300A APU를 지원합니다. 이러한 솔루션의 도움으로 의료 분석이 더욱 빠르고 스마트해집니다.AI 지원 상담을 위해 고객은 중앙 집중식 위치 또는 현장 계산을 위한 워크스테이션에서 AI 추론을 수행하려는 경우 소형, 고밀도 서버 솔루션을 채택할 수 있습니다. GIGABYTE의 G293-Z43은 2U 섀시에 16개의 AMD Alveo™ V70 카드를 탑재하여 업계 최고의 컴퓨팅 밀도를 제공하므로 첫 번째 시나리오에 완벽하게 적합합니다. 반면에, GIGABYTE의 W-시리즈 타워 서버/워크스테이션 제품을 배치하여 엔터프라이즈급 컴퓨팅을 병원에 직접 가져올 수 있습니다. 상담 중에 수집된 디지털 데이터는 AI 모델을 재교육하고 최적화하는 데 사용될 수 있습니다.GIGABYTE는 최상위 하드웨어 외에도 투자 회사인 MyelinTek Inc.를 통해 소프트웨어 솔루션도 제공합니다. GIGABYTE의 MLSteam DNN 교육 시스템은 NVIDIA MONAI와 같은 의료 AI 개발을 위한 인기 있는 딥 러닝 프레임워크와 권장 라벨링을 결합하므로 의료 분석을 향상시킬 수 있습니다. AI 훈련을 간소화하는 도구 및 이미지 프로그램. 또한 MLSteam DNN 교육 시스템은 NLP 및 LLM 애플리케이션에 사용할 수 있습니다. 이는 민감한 환자 데이터를 보호하면서 상담을 지원하기 위해 자체 AI를 호스팅하려는 의료 서비스 제공자에게 중요합니다.리소스:기술 가이드: 생성 AI를 활용하려면 "훈련" 및 "추론"에 대해 배워야 합니다.FAQ: 인공 지능에 대해 자주 묻는 10가지 질문     치료 : 개인별 상태에 따른 특화된 진료를 제공하는 맞춤의학 진단 후 논리적인 다음 단계는 치료입니다. 이 분야의 흥미로운 혁신 중 하나는 약을 처방할 때 환자의 유전자, 생활 방식, 생활 환경을 고려하는 맞춤 의학 또는 정밀 의학입니다. 이는 동일한 질병을 앓고 있는 모든 개인을 동질적인 개체처럼 치료하는 기존의 일률적인 방식과 다릅니다. 개인맞춤의료는 더욱 효과적이며 귀중한 의료자원의 낭비를 방지합니다.앞서 언급한 전자 건강 기록(EHR)의 편재성은 AI가 환자 정보를 디지털화하고 분석할 수 있도록 하는 데 큰 도움이 됩니다. 앞서 언급한 바와 같이 GIGABYTE는 EHR 작업을 위한 서버 솔루션과 MLOps 소프트웨어를 제공합니다. 이 제품은 AI가 데이터를 연구하고 개인의 병력을 기반으로 적절한 치료법을 추천하는 데 필요한 컴퓨팅 능력을 제공합니다.안전하고 안정적인 데이터 저장은 맞춤형 의료를 실현하는 데에도 중요합니다. 인간과 로봇 의사가 맞춤형 치료를 처방하기 위해서는 상세한 건강 기록을 유지해야 하기 때문에, 데이터베이스를 구축하고 즉각적인 접근이 가능하도록 특수 서버를 사용합니다.GIGABYTE Technology의  S-시리즈 스토리지 서버는  의료 및 의학 분야에 최신 데이터 스토리지 기술을 제공합니다. 예를 들어,  S183-SH0은  최신 PCIe Gen5 인터페이스를 활용하여 더 큰 스토리지 용량(최대 240테라바이트)을 제공하는 32개의 EDSFF E1.S NVMe 핫 스왑 가능 베이를 갖춘 올플래시 어레이(AFA) 스토리지를 제공합니다. 확장성과 기존 엔터프라이즈급 2.5인치 SSD의 장점을 유지합니다. GIGABYTE는 또한 Graid 기술과 협력하여 CPU 성능에 영향을 주지 않고 RAID의 보안 이점을 제공하는 소프트웨어 정의 솔루션인 SupremeRAID™를 제공합니다.GIGABYTE의  네트워크 서버는  컴퓨팅 서버 및 기타 외부 장치와 연결하여 스토리지 서버를 지원할 수 있습니다. 스토리지 서버 자체를 포함하여 다양한 범주의 서버가 이 역할을 수행할 수 있지만 GIGABYTE의  R-시리즈 랙 서버는  다용성과 유연성으로 인해 적극 권장됩니다. 이러한 서버는 서버 랙의 공간 할당을 최적화하고 데이터 센터의 기능을 향상시키는 방향으로 고객이 선택한 프로세서, 확장 카드 및 드라이브 베이를 수용할 수 있습니다.리소스:NVMe란 무엇입니까?PCIe란 무엇입니까?확장성이란 무엇입니까?RAID란 무엇입니까?중앙처리장치(CPU)란 무엇입니까?   치료: 환자 모니터링은 비침해적이고 중단 없는 원격 의료 서비스를 제공합니다. 개인의 사생활을 침해하거나 삶의 질에 영향을 주지 않고 수행할 수 있다면 의료진이 치료 후 환자의 회복 과정을 감시하는 것이 도움이 됩니다. 전통적으로 환자 모니터링은 병원 병동에서만 가능했으며 매우 노동 집약적이었습니다. 병원 밖에서 환자를 모니터링하는 것은 거의 불가능했습니다. AI가 그것을 바꾸었습니다.병원 병동의 병실 내에서는  개인 프라이버시를 침해할 수 있는 영상을 렌더링하거나 전송하지 않고 3D 깊이 감지 기술을 활용하여 환자의 위치와 동작을 감지하는 GIGABYTE의 스마트 추락 감지 시스템 과 같은 발명품을 통해 환자의 안전을 보호할 수 있습니다. 추락이 발생하면 시스템은 즉시 직원에게 알리고 AI를 사용하여 상황을 정확하게 평가하고 오경보를 방지합니다. 중환자실(ICU)에서는 훈련된 AI 모델이 환자의 심전도(ECG)를 모니터링하고 직원에게 위험을 경고할 수 있습니다. 이미 다룬 GIGABYTE의 진단용 AI 교육 및 추론 솔루션은 환자 모니터링을 위한 컴퓨팅 플랫폼 역할을 할 수 있습니다.병원 및 진료소 외부에서는 웨어러블 장치 및 기타 IoT 기기를 통해 원격 의료 서비스를 촉진할 수 있습니다. AI는 일반적인 문의에 응답하고 환자에게 인간 의사의 주의가 필요한지 여부를 평가할 수 있습니다. GIGABYTE의  E-시리즈 엣지 서버는  환자에게 더 가까이 컴퓨팅을 제공하고 원격 의료 범위를 확장하는 데 도움이 될 수 있습니다. 이 서버는 데이터 센터 외부 배포에 편리한 소형 섀시에서 높은 컴퓨팅 밀도, 높은 확장성 및 짧은 대기 시간 처리 기능을 제공합니다. 이는 방대한 양의 의료 데이터를 처리하고 적시에 신뢰할 수 있는 의료 서비스를 제공할 수 있는 5G 기반 다중 액세스 엣지 컴퓨팅(MEC) 네트워크의 구성 요소 역할을 할 수 있습니다. 대부분의 모바일 및 웨어러블 장치와 동일한 "컴퓨팅 언어"를 사용하는 GIGABYTE의  ARM 서버는 회복 중인 환자에게 의료 서비스를 제공하기 위해 엣지에서 의료 AI를 호스팅하기 위한 또 다른 최적의 플랫폼입니다.리소스:IoT란 무엇입니까?엣지 컴퓨팅이란 무엇입니까?5G란 무엇인가?다중 액세스 엣지 컴퓨팅이란 무엇입니까?   치료: AI를 활용해 정확성, 안전성, 속도 향상으로 신약 개발 혜택 의료 시설 외부에서도 연구자들은 최신 컴퓨팅 플랫폼을 사용하여 더 우수하고 안전한 치료법을 더 효율적으로 개발하고 있습니다. 그들의 초점은 코로나19와 같은 긴급한 글로벌 의료 위기일 수도 있고, 유전성 심장 질환과 같이 고령화 사회에 큰 타격을 주고 있는 장기적인 만성 질환일 수도 있습니다. AI와 HPC는 바이러스와 건강에 해로운 인간 세포의 분자 구조를 해부하는 데 사용될 수 있습니다. 또한 다양한 약물의 결과를 예측하고 약물 상호 작용을 시뮬레이션하여 의도하지 않은 부작용을 방지할 수 있습니다. 그 결과 우리는 우리 몸을 완전히 치유하고 건강을 보호하는 방식으로 우리에게 필요한 치료를 더 빨리 받을 수 있게 됩니다.대부분의 연구 기관에서는 과학자들이 완전한 도구 세트를 활용할 수 있도록 여러 서버를 사용하여 컴퓨팅 클러스터를 구축합니다. 앞서 언급한 모든 GIGABYTE 하드웨어 및 소프트웨어 솔루션에는 각자의 역할이 있습니다. 예를 들어  H 시리즈 고밀도 서버  와  G 시리즈 GPU 서버는  가속화된 계산에 탁월하므로 클러스터의 계산 노드 역할을 할 수 있습니다. S-시리즈 스토리지 서버는  원시 데이터와 귀중한 연구 결과를 안전하게 저장하는 데 적합합니다. R 시리즈 랙 서버는  컴퓨팅, 스토리지 또는 네트워킹 역할을 수행할 수 있습니다. 또한 동시에 작동하는 많은 수의 서버를 관리하는 데 중요한 "헤드" 또는 "제어" 노드 역할을 할 수도 있습니다.여기서는 GIGABYTE가 독점적인 다중 서버 원격 관리 소프트웨어 플랫폼인 GIGABYTE Server Management(GSM)를 무료로 제공한다는 점을 언급하기에 좋은 곳입니다. GSM은 인터넷을 통한 서버 클러스터 관리를 용이하게 합니다. 실시간 원격 제어를 위한 GSM 서버, 원격 모니터링 및 관리를 위한 GSM CLI, OS를 통한 데이터 검색을 위한 GSM Agent, 모바일 앱을 통한 원격 관리를 위한 GSM Mobile, 실시간 GSM 플러그인 등 다양한 시스템 관리 기능을 포함합니다. VMware vCenter를 통한 모니터링 및 관리.스페인 마드리드에 있는 Rey Juan Carlos University는 연구원들이 "Talos"로 지정한 GIGABYTE 컴퓨팅 클러스터의 만족스러운 소유자 중 하나입니다. 그들의 연구 분야는 세포 노화와 재프로그래밍입니다. 그들은 세포 및 분자 수준 모두에서 노화 과정을 연구하여 심장학 분야에서 새로운 돌파구를 마련하고 이를 통해 심장 질환에 대한 더 나은 치료법을 개발할 수 있기를 희망합니다. 대만의 Cheng Kung University(NCKU)는 4개의 GIGABYTE G482-Z50  GPU 서버 클러스터를 사용하여  코로나19를 유발하는 바이러스인 SARS-CoV-2가 다양한 약물에 어떻게 반응하는지 시뮬레이션했습니다. 이것이 백신 개발의 핵심이다. 본 연구에 대한 노력과 기타 성과를 바탕으로 NCKU 학생 팀은 2020년 APAC HPC-AI 대회에서 1위를 차지했습니다.자료:컴퓨팅 클러스터란 무엇입니까?노드란 무엇입니까?사례 연구: Rey Juan Carlos University에서 세포 노화 메커니즘 연구사례 연구: GIGABYTE는 NCKU 교육 상을 받은 슈퍼컴퓨팅 팀을 지원합니다.   치료: 요약 질병이 진단된 후, 의사는 환자가 회복될 수 있도록 치료를 제공해야 합니다. AI는 우리가 받는 의료를 다양한 방식으로 개선할 수 있습니다. 예를 들어 AI는 맞춤형 의료라는 이상을 현실로 바꿔 환자가 병력을 바탕으로 맞춤형 진료를 받을 수 있도록 해준다. AI로 강화된 환자 모니터링은 의료진이 일상 생활을 방해하지 않고 환자의 회복을 계속 감시하는 데 도움이 됩니다. AI는 또한 약물 개발을 더 빠르고 안전하며 더 정확하게 만들어 마침내 전 세계적으로 유행하는 전염병과 오래된 질병에 대한 솔루션을 갖게 될 수 있습니다.맞춤형 의료와 관련하여 환자 데이터를 연구하려면 최첨단 프로세서로 구동되는 서버가 필요할 뿐만 아니라 민감한 정보를 안전하게 저장하려면 대용량, 보안성이 뛰어난 스토리지 서버도 필수적입니다. GIGABYTE Technology는 포괄적인 AI 서버 제품군 외에도 데이터를 보호하기 위한 최첨단 스토리지 서버와 데이터 센터의 컴퓨팅 및 스토리지 계층을 보완하는 네트워크 서버를 제공합니다. GIGABYTE는 Graid Technology와의 제휴를 통해 SupremeRAID™를 제공하여 CPU 성능에 영향을 주지 않고 데이터 보안을 더욱 보장합니다.병원 병동 내에서는 GIGABYTE의 AI 서버를 통해 환자 모니터링이 가능하며, 스마트 낙상 감지 시스템과 같은 비침해적 모니터링 장치가 지원되어 개인 정보를 침해하지 않고 환자를 감시할 수 있습니다. 병원 외부에서는 원격 의료 네트워크 확장을 위해 GIGABYTE의 엣지 서버 및 ARM 서버를 권장합니다. 이들 제품은 환자 거주지와 더 가까운 곳에서 연산을 수행하고, 5G 네트워크를 통해 환자와 연결해 AI 상담과 스마트 모니터링이 가능하다.약물 개발을 전담하는 연구 센터는 일반적으로 AI 및 HPC를 활용한 노력을 강화하기 위해 컴퓨팅 클러스터를 구축합니다. GIGABYTE는 컴퓨팅을 위한 고밀도 서버 및 GPU 서버부터 데이터 저장을 위한 스토리지 서버, 컴퓨팅, 네트워킹, 스토리지 및 전체 클러스터 관리를 위한 랙 서버에 이르기까지 이러한 클러스터를 구성하는 데 필요한 모든 서버 솔루션을 제공합니다. GIGABYTE의 무료 독점 GIGABYTE 서버 관리(GSM) 소프트웨어를 사용하면 편리한 원격 클러스터 관리가 가능합니다.리소스:기술 가이드: 분산 컴퓨팅의 고급 형태인 클러스터 컴퓨팅기술 가이드: AI에 적합한 서버를 선택하는 방법은 무엇입니까? (1 부)     왜 기가바이트인가? 의료 및 의학에 인공 지능을 적용하려면 완전한 하드웨어 및 소프트웨어 패키지를 준비할 수 있는 기술 파트너와 협력해야 합니다. GIGABYTE 기술을 사용하면 다음과 같은 6가지 이점을 누릴 수 있습니다. ● 포괄적인 제품군 GIGABYTE는 의료 및 의학 분야의 진단과 치료를 위한 하드웨어와 소프트웨어를 제공합니다. 귀하가 대형 병원에서 근무하든 소규모 진료소에서 근무하든 GIGABYTE는 귀하의 AI 워크로드 및 작업 환경에 가장 적합한 서버 솔루션은 물론 AI 여정을 시작할 수 있는 소프트웨어 패키지를 추천할 수 있습니다. ● 최첨단 컴퓨팅 능력 GIGABYTE는 x86 CPU용 AMD 및 Intel, ARM CPU용 Ampere 및 NVIDIA는 물론 AMD, NVIDIA 및 기타 GPU 공급업체와 같은 업계 최고의 칩 공급업체와 긴밀한 관계를 유지하고 있습니다. 이는 최신 AI 기술로 의료 도구 상자를 완성하려는 경우 필수적인 GIGABYTE를 선택하면 최첨단 처리 능력을 의미합니다. ● 독특하고 독점적인 제품 디자인 GIGABYTE의 서버 제품은 안정적인 작동을 유지하고 전기 비용을 최소한으로 유지하면서 프로세서의 잠재력을 최대한 발휘할 수 있는 혁신적인 열 관리 기능을 갖추고 있습니다. 이는 지속 가능한 장기 배포에 이상적일 뿐만 아니라 AI 주입 의료 서비스를 항상 사용할 수 있도록 보장하는 데도 도움이 됩니다. ● 부가 가치 서비스 보완 앞서 언급했듯이 GIGABYTE는 클러스터 관리를 위해 GIGABYTE 서버 관리(GSM)를 무료로 제공합니다. 또한 모든 GIGABYTE 서버에는 GIGABYTE Management Console이 무료로 제공됩니다. 웹 기반 브라우저를 통해 서버 성능을 극대화할 수 있는 사용자 친화적인 원격 관리 도구입니다. 다른 제공업체에서는 이러한 기능에 대해 비용을 청구할 수 있지만 GIGABYTE는 그렇지 않습니다. ● 수십 년간 입증된 실적 GIGABYTE의 비전은 첨단 기술로 세상을 더 나은 곳으로 만드는 것입니다. GIGABYTE는 2000년부터 서버 솔루션 개발을 시작했습니다. 2023년에는 서버 사업부를 분사하여 Giga Computing Technology라는 전액 출자 자회사를 설립했습니다. 생태계에 대한 장기적인 투자는 GIGABYTE 서버가 최신 AI 제품과 호환되며 NVIDIA, Linux, Red Hat 등과 같은 업계 리더의 인증을 받았다는 것을 의미합니다. ● 믿을 수 있는 서비스 및 지원 GIGABYTE는 하드웨어와 소프트웨어에 대해 안정적인 서비스와 지원을 제공합니다. 온라인 eSupport 시스템을 통해 당사 서비스 팀과 연락할 수 있으며, 온라인 FAQ를 통해 현장에서 문제를 해결하는 데 도움을 받을 수 있습니다.     요약 헬스케어, 의료산업에 인공지능이 도입되면서 인류는 더 행복하고 건강한 삶을 살게 될 것입니다. 광범위하게 말하면, AI는 의료 분석을 발전시킬 수 있는 AI 훈련을 통해 진단을 지원할 수 있습니다. AI 추론을 통해 상담 시 의사결정에 도움을 줄 수 있을 뿐만 아니라 행정적 부담도 줄일 수 있습니다. AI는 환자의 개별 요구 사항에 따라 맞춤형, 맞춤형 약품을 처방하여 치료를 개선할 수 있습니다. 회복 과정에서 환자를 모니터링할 수 있으며 연구자가 더 새롭고 더 나은 치료법을 개발하는 데 도움을 줄 수 있습니다.AI 훈련과 추론이 진단의 핵심이기 때문에, 시장에서 가장 진보된 프로세서 중 일부를 지원할 수 있는 GIGABYTE Technology의 H-시리즈 고밀도 서버와 G-시리즈 GPU 서버는 AI를 통한 의료 및 의학 진단 지원에 적극 권장됩니다. . GIGABYTE의 W-시리즈 타워 서버/워크스테이션 제품은 데이터 센터급 컴퓨팅 능력을 진료실에 바로 가져올 수 있습니다. 소프트웨어와 관련하여 GIGABYTE의 MLSteam DNN 교육 시스템은 의료 AI 개발을 가속화할 수 있으며 환자 정보를 보호하면서 관리 작업을 처리하고 EHR을 생성하는 LLM 및 NLP 애플리케이션을 지원할 수 있습니다.위에서 언급한 슈퍼컴퓨팅 플랫폼은 치료 제공에도 이상적이지만 몇 가지 주의 사항이 있습니다. 개인화된 의료를 위해서는 GIGABYTE의 S-시리즈 스토리지 서버를 사용하여 민감한 의료 데이터를 저장하고 보호하는 것이 좋습니다. R 시리즈 랙 서버는 컴퓨팅 및 스토리지 서버를 지원하는 네트워크 서버의 역할을 수행할 수 있습니다. 또한 신약과 치료법을 개발하는 데 사용되는 컴퓨팅 클러스터의 헤드 또는 제어 노드 역할을 할 수도 있습니다. 24시간 환자 모니터링을 제공하기 위해 GIGABYTE의 스마트 낙상 감지 시스템과 같은 비침해적 감시는 개인 정보를 침해하지 않고 환자의 안전을 보장할 수 있습니다. GIGABYTE의 E-시리즈 엣지 서버 및 ARM 서버는 원격 의료를 위한 포괄적인 5G 지원 다중 액세스 엣지 컴퓨팅(MEC) 네트워크를 구축하는 데 최적입니다.AI의 힘은 우리의 웰빙을 더 잘 돌볼 수 있도록 의료 및 의료 산업에 혁명을 일으킬 수 있습니다.

상세보기

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 2부: 메모리, 스토리지 등

2023.10.04

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 2부: 메모리, 스토리지 등

기술 가이드 1부 에서는  AI 서버  에  적합한 중앙 처리 장치(CPU)  와  그래픽 처리 장치(GPU)를 선택하는 데 도움이 되는 몇 가지 유용한 팁을 살펴보았습니다   . 처리 능력이 가장 중요하지만 AI 컴퓨팅 플랫폼에는 이 두 가지 구성 요소보다 더 많은 것이 있습니다. 이 섹션에서는 메모리, 스토리지, 전원 공급 장치(PSU), 열 관리, 확장 슬롯 및 I/O 포트가 서버 성능에 어떤 영향을 미칠 수 있는지, 그리고 AI 작업에 적합한 장치를 선택하는 방법을 살펴봅니다. . 자세히 알아보기: 《AI 개발 및 응용을 위한 GIGABYTE AI 서버 소개   》《기술 가이드:  서버란 무엇입니까? 》   인공 지능을 기반으로 하는 도구와 서비스가 확산되면서 크고 작은 조직에서 "AI 서버" 조달이 우선 순위가 되었습니다. AI 서버 선택에 관한 GIGABYTE Technology의 기술 가이드 2부에서는 서버를 슈퍼컴퓨팅 강자로 변모시킬 수 있는 CPU 및 GPU 외에 6가지 다른 필수 구성 요소를 살펴봅니다.   AI 서버에 적합한 메모리를 선택하는 방법은 무엇입니까? RAM이라고도 하는 메모리는 서버에서 프로세서가 즉시 사용할 수 있도록 프로그램과 데이터를 저장하는 데 사용됩니다. 가장 강력한 AI 칩은 많은 양의 데이터를 매우 빠르게 계산할 수 있으므로 부적절한 메모리로 인해 성능이 저하될 수는 없습니다. 서버의 메모리는 항상 프로세서를 지원할 만큼 충분한 처리량과 용량을 가지고 있어야 합니다.현재 가장 발전된 유형의 메모리는 5세대 Double Data Rate 동기식 동적 랜덤 액세스 메모리인 DDR5 SDRAM입니다. 줄여서 DDR5라고 부르겠습니다. 이전 세대보다 더 높은 데이터 전송 속도, 더 높은 대역폭, 더 낮은 전압 요구 사항 및 더 많은 용량을 제공하므로 최고의 AI 서버에 선택되는 메모리 구성 요소입니다.분명히 하나의 RAM 스틱(더 정확하게는  DIMM 이라고 함))만으로는 충분하지 않습니다. AI 서버에 워크로드 요구 사항을 충족하기에 충분한 DIMM 슬롯이 있는지 확인하십시오. 예를 들어,  AI 훈련  및  추론을  위해 설계된  G 시리즈 GPU 서버인 GIGABYTE  의 G493-ZB3 에는 인상적인 48개의 DIMM 슬롯이 있습니다. DIMM 자체는 속도, 안정성 및 용량을 최적화하도록 설계될 수 있습니다. 예로는 RDIMM(등록된 DIMM) 및 LRDIMM(부하 감소 DIMM)과 같은 특정 DIMM 하위 집합이 있습니다. 마지막으로, 서버 프로세서에는 메모리 사용을 합리화하는 방법이 있을 수 있습니다. GIGABYTE의 강력한 AI 트레이닝 제품인  G593-SD0은 Intel® Xeon® CPU Max 시리즈 프로세서를 지원합니다. 이 프로세서는 고대역폭 메모리(HBM)를 통해 향상된 메모리 사용을 제공합니다. HPC  및 AI 워크로드. AMD GPU가 사용하는 XDNA™ 아키텍처는 외부 메모리에 의존하지 않고 데이터가 AI 모델의 계층을 통과할 수 있도록 하는 적응형 데이터 흐름 아키텍처를 자랑합니다.     AI 서버에 적합한 스토리지를 선택하는 방법은 무엇입니까? 메모리는 즉시 사용할 수 있도록 데이터를 저장하는 반면, 스토리지는 사용자가 삭제할 때까지 서버의 모든 데이터를 영구적으로 보관합니다. 고려해야 할 세 가지 기준은 속도(예: 데이터 전송 속도 및 대역폭), 저장 용량, 장치가 "현대 데이터  센터 의 세 번째 기둥 "(CPU 및 GPU에 이어)  인 DPU 와 호환되는지 여부입니다. .기억해야 할 약어가 많으니 계속 함께해주세요. 우선, 솔리드 스테이트 드라이브(SSD)가 하드 디스크 드라이브(HDD)보다 우수한 저장 장치로서 오랫동안 앞섰으므로 AI 서버에서 반드시 사용해야 한다는 것은 말할 필요도 없습니다. 스토리지 인터페이스에는 SATA, SAS, NVMe 의 세 가지 유형이 있습니다. . SATA는 가장 확립된 기술이며 처음에는 HDD와 함께 사용하도록 설계되었습니다. SAS는 SATA보다 빠르지만 SSD에서만 사용할 수 있는 NVMe가 챔피언입니다. NVMe는 PCIe 기술을 활용하여   읽기/쓰기 속도를 향상하고 저장 장치와 프로세서 간의 대역폭을 높이기 때문에 결과적으로 데이터 전송 속도가 빨라지고 대기 시간이 단축됩니다. 따라서 최신 Gen5 NVMe 인터페이스를 사용하는 SSD는 AI 서버의 스토리지 장치로 최고의 선택입니다.고려해야 할 다음 속성은 용량입니다. 대체로 말하면, NVMe SSD는 더 작은 M.2 폼 팩터 또는 보다 보편적인 엔터프라이즈급 2.5인치 폼 팩터를 채택합니다. GIGABYTE의 포괄적인 AI 서버 제품군은 더 큰 용량과 핫 스왑 가능 설계로 인해 주로 2.5인치 스토리지 베이를 활용하므로 서버 전원을 끄지 않고도 베이를 편리하게 제거하거나 교체할 수 있습니다. 많은 서버 모델에서는 추가 M.2 슬롯도 사용할 수 있습니다.마지막으로  H223-V10  H-시리즈 고밀도 서버 와 같은 GIGABYTE의 일부 AI 서버 NVIDIA Grace Hopper™ Superchip으로 구동되는 이 제품은 확장 슬롯에 NVIDIA BlueField-3 DPU를 추가하여 보조 2.5" Gen5 NVMe 핫스왑 가능 스토리지 베이를 지원할 수 있습니다. 이는 옵션을 비교할 때 고려해야 할 흥미로운 새 기능입니다. AI 서버의 스토리지 베이용. 메모리와 스토리지는 서로 다른 기능을 수행하지만 AI 슈퍼컴퓨팅 플랫폼에 적합한 것을 선택할 때 비슷한 경험 법칙이 있습니다. AI 서버에 적합한 전원 공급 장치를 선택하는 방법은 무엇입니까? 서버의 전원 공급 장치(PSU)는 서버 실행에 안전하고 안정적인 전원을 제공합니다. AI 워크로드는 컴퓨팅 집약적인 경향이 있으므로 탁월한 전력 효율성과 중복성을 제공하는 PSU 구성을 선택하는 것이 필수적입니다.PSU의 전력 효율성을 확인하는 가장 좋은 방법은 80 PLUS라는 인증 프로그램을 이용하는 것입니다. 이 프로그램은 에너지 효율성을 기준으로 PSU를 6가지 레벨로 구분하며, 80 PLUS Titanium이 가장 효율적입니다. 이 수준에서 변환효율(즉, 얼마나 많은 에너지 입력이 유용한 출력으로 변환되는지)은 간단히 말하면 90%에서 96% 사이입니다. 두 번째로 높은 수준은 80 PLUS Platinum으로, 변환 효율은 89%에서 94% 사이입니다. GIGABYTE의 AI 서버는 주로 80 PLUS Titanium 인증 PSU를 사용합니다.기억해야 할 또 다른 점은 중복성이 필수적이라는 것입니다. 하나 이상의 PSU가 다운되더라도 서버는 계속 작동해야 합니다. GIGABYTE의 AI 서버는 적절한 수의 예비 전원 공급 장치로 설계되었습니다. 일부 서버는 PSU의 절반이 오프라인이 되어도 정상 작동을 계속할 수 있습니다.     AI 서버에 적합한 열 관리를 선택하는 방법은 무엇입니까? 서버 내부의 모든 구성 요소가 많은 열을 발생시키는 것은 당연합니다. 전기 요금을 많이 내지 않고 서버에서 최고의 성능을 얻으려면 올바른 열 관리 또는 방열 도구를 선택하는 것이 중요합니다.서버를 시원하게 유지하는 전통적인 방법은 공기 냉각입니다. 즉, 서버에 팬이 설치되어 뜨거운 공기를 데이터 센터 통로로 펌핑합니다. GIGABYTE의 모든 AI 서버는 독점적인 공기 흐름 친화적인 하드웨어 설계를 채택합니다. 섀시의 공기 흐름 방향은 시뮬레이션 소프트웨어를 통해 평가되어 환기를 최적화했습니다. 고성능 팬과 방열판을 장착해 방열 성능을 더욱 강화했습니다. 자동 팬 속도 제어 프로그램은 섀시의 중요한 지점의 온도를 모니터링하고 그에 따라 해당 팬의 속도를 조정합니다. 팬 속도 프로필을 수동으로 조정하여 열 관리와 전력 효율성 간의 적절한 균형을 유지할 수도 있습니다. GIGABYTE의 G363-SR0과 같은 특정 AI 서버 NVIDIA HGX™ H100 4-GPU 모듈과 통합된 GPU 서버인 는  액체 냉각 도 지원합니다 . 이는 서버의 주요 구성 요소 주위를 감고 열을 흡수하는 냉각 루프를 통해 액체 냉각수를 펌핑하는 혁신적인 새로운 열 관리 방법입니다. 액체 냉각은 프로세서의 잠재력을 최대한 활용하는 동시에 데이터 센터의 전체  PUE를 향상시킬 수 있는 잠재력을 가지고 있습니다 .액체 냉각의 정점은  침수 냉각 으로, 비전도성 유전체 유체 욕조에 서버를 직접 담그는 방식입니다. GIGABYTE는 단상 및 2상 침수 냉각 솔루션을 모두 제공합니다  . 예를 들어  A1P0-EB0 는 표준 19인치 EIA 서버용으로 설계된 원스톱 침수형 냉각 솔루션이고,  A1O3-CC0 은 OCP 서버용  으로 설계되었습니다   .  GIGABYTE의 AI 서버는 전체 PUE를 더욱 향상시키면서 TDP를 최적화하는 이러한 고급 냉각 방법과 함께 작동하도록 수정될 수 있습니다  .자세히 알아보기:《GIGABYTE 전용  고급 냉각 솔루션 미니 사이트 방문 》《기술 가이드:  서버에 적합한 냉각 솔루션을 선택하는 방법은 무엇입니까? 》 다음은 AI 서버용 전원 공급 장치, 열 관리, 확장 슬롯 및 I/O 포트를 선택하는 방법에 대한 몇 가지 간단한 지침입니다. AI 서버에 적합한 확장 슬롯을 선택하는 방법은 무엇입니까? 확장  성 (필요할 때 컴퓨팅 도구 키트를 확장할 수 있는 여유 공간)이 중요하므로 AI 서버의 확장 슬롯에 주의를 기울이는 것을 잊어서는 안 됩니다. 잘못된 선택은 없지만 몇 가지 사항을 염두에 두는 것이 도움이 됩니다.먼저, PCIe Gen5 슬롯을 찾으십시오. 많을수록 더 좋습니다. PCIe Gen5의 대역폭은 128GB/s이고 데이터 전송 속도는 32GT/s입니다. 둘 다 이전 세대에 비해 100% 증가했습니다. 이 슬롯을 사용하면 데이터 전송, 데이터 압축, 데이터 저장, 데이터 보안 및 CPU에 대한 데이터 분석을 처리할 수 있는 추가 그래픽 카드,  RAID  카드는 물론 앞서 언급한 DPU도 추가하여 서버 성능을 더욱 향상시킬 수 있습니다. 버스 표준 외에도 섀시에 사용할 수 있는 물리적 공간도 있습니다. FHFL(전체 높이, 전체 길이) 및 HHHL(절반 높이, 절반 길이)과 같은 약어가 표시되며 이는 LP(로우 프로파일)와 동일합니다. 이러한 설명은 확장 슬롯이 작동하도록 설계된 카드의 크기를 나타냅니다. 더 작은 카드가 더 큰 카드용으로 설계된 슬롯에 들어갈 수 있지만 그 반대는 불가능하다는 점은 주목할 가치가 있습니다. 따라서 슬롯의 다양성과 달성하려는 컴퓨팅 밀도 중에서 선택해야 합니다. OCP 네트워킹 및 저장소 카드에 필요한 OCP 메자닌 슬롯은 이러한 추가 기능을 사용할 가능성이 있는 경우 AI 서버에서도 사용할 수 있어야 합니다.     AI 서버에 적합한 I/O 포트를 선택하는 방법은 무엇입니까? AI 서버에서 마지막으로 고려해야 할 사항은 스위치, 디스플레이 및 기타 서버와 같은 외부 장치에 연결하는 방법입니다. 언제나 그렇듯이, 기본 원칙은 가장 진보된 기술을 더 많이 확보하려고 노력하는 것입니다.  1Gb/s 또는 10Gb/s 전송 속도, USB 3.0 이상(예: USB 3.2)을 지원하는 LAN 포트를 목표로 하세요  .또한 서버에 MLAN이라고도 하는 전용 관리 포트가 있는지 확인할 수도 있습니다. 이는 서버의  BMC 에 대한 보안 액세스를 제공하므로 보다 편리한 서버 관리 방법을 원하는 경우 유용할 수 있습니다. 모든 것이 준비되면 AI 워크로드에 이상적으로 적합한 슈퍼컴퓨팅 플랫폼을 갖게 됩니다."AI에 적합한 서버를 선택하는 방법"에 관한 GIGABYTE 기술 가이드를 읽어주셔서 감사합니다. 2부: 메모리, 스토리지 등”. 이 기사가 도움이 되고 유익한 정보가 되었기를 바랍니다. 

상세보기

[GIGABYTE] 지리적 경계를 뛰어넘다! BIM 기술 혁신 센터

2023.10.04

[GIGABYTE] 지리적 경계를 뛰어넘다! BIM 기술 혁신 센터

GIGABYTE W771-Z00 GPU 워크스테이션 GIGABYTE의 "원격 교육 및 3D 디자인 협업" 솔루션은 NVIDIA Omniverse™를 핵심 프레임워크로 사용하고 GIGABYTE W771-Z00 GPU 워크스테이션을 가상 호스트로 사용합니다. 이 솔루션은 '대만 건축 및 건축 센터'에서 전시되어 건설 및 건축 엔지니어링 업계 내 실시간 원격 협업과 3D 협력을 시연합니다. 행정자치부 산하 건축건축연구소는 건축정보모델링(BIM) 기술을 홍보하고 향후 디지털 건설 애플리케이션 개발을 지원하기 위해 '건축디지털디스플레이교육센터'를 건립한다.  2024년 이전 개장 준비 및 계획을 담당하기 위해 대만 건축 건축 센터 (TABC) 를 임명했습니다  . 목표는 대만 최초의 건설 기업을 위한 BIM 기술 및 디지털 기술 전시 및 교육 센터를 만드는 것입니다. 전문 기술에 대한 산업계와 정부 간의 연결과 협력을 강화하기 위해 TABC는 TABC에서 솔루션을 전시하기 위해 GIGABYTE를 선택했습니다. GIGABYTE 솔루션은 “원격교육과 3D 디자인 협업” . NVIDIA Omniverse™를  핵심 프레임워크로, GIGABYTE  W771  -Z00  GPU 워크스테이션을 가상 워크스테이션으로 사용하는 이 솔루션은 울트라슬림 미니 PC인 GIGABYTE BRIX Extreme  GB-BEi7HS-1260  및  GB-BER7HS-5800을 씬 클라이언트 솔루션으로 사용합니다. 고성능 컴퓨팅과 유연한 배포를 제공합니다. 디자인, 교육, 건축, 건설 산업에 적합하며 실시간 원격 연결 및 3D 협업에 대한 요구를 지원합니다. TABC 애플리케이션 프로모션 부문 관리자 Ming-Hao Li(오른쪽에서 두 번째)가 Giga Computing의 비즈니스 개발 관리자인 Leo Wang(오른쪽에서 세 번째)에게 건축 디지털 디스플레이 및 교육 센터의 향후 계획을 설명하고 있습니다.   그러나 업계가 BIM 기술을 채택하도록 지원하는 과정에는 많은 과제가 있습니다. 과제에는 BIM을 위한 다양한 데이터 소스의 통합과 소프트웨어 도구의 호환성이 포함됩니다. 또한, 건설산업은 규제, 관리, 기술교육 등의 문제를 포함하여 실제 적용에 있어 여전히 많은 전통적 관행을 유지하고 있습니다. 이는 모두 BIM 기술을 촉진하기 위해 해결해야 할 과제입니다. Li 씨는 기술 수준을 예로 들어 건설 업계가 아직 프로젝트 공유를 위한 클라우드 기반 데이터 플랫폼인 CDE(Common Data Environment)와 통합하지 못했다고 설명했습니다. 서로 다른 전문 팀이 의사소통을 위해 서로 다른 소프트웨어의 파일을 변환하고 통합해야 하므로 협업 프로세스가 매우 복잡해졌습니다. 파일을 가져오거나 내보낼 때의 호환성 문제로 인해 프로젝트 완료 시간이 크게 늘어났습니다. 인재 교육 측면에서 BIM 기술은 건축가, 시공업체, 전기 엔지니어링 공급업체 간의 다자간 협업 및 설계 검토를 촉진할 수 있지만 기존 과정에서는 협업 프로세스를 구현하기 어렵고 참석자들은 구현에 대한 실무 경험을 얻을 수 없습니다. 다자간 협력의 이점. GIGABYTE W771-Z00 GPU 워크스테이션     가상 워크스테이션을 통해 다양한 지리적 위치에 있는 사용자는 초슬림 미니 PC인 BRIX Extreme을 인터페이스로 사용하여 W771-Z00 GPU 워크스테이션의 컴퓨팅 성능과 리소스에 액세스할 수 있습니다.   Giga Computing의 비즈니스 개발 관리자인 Leo Wang은 "소프트웨어와 하드웨어의 융합을 통해 3D 디자인 작업과 원격 협업에 대한 요구 사항을 충족합니다. 이 솔루션에는 최대 4개의 듀얼 슬롯 전문가를 수용할 수 있는 GIGABYTE W771-Z00 워크스테이션이 포함되어 있습니다." GPU는 물론 유연하고 확장 가능한 BRIX 미니 PC를 씬 클라이언트로, NVIDIA Omniverse 플랫폼을 통해 지리적 경계에 관계없이 실시간 다자간 협업을 촉진합니다." GIGABYTE는 NVIDIA 인증 서버 파트너이며 GIGABYTE의 하드웨어는 NVIDIA GPU 및 고속 네트워킹에 대해 검증되었습니다. TABC가 설정한 W771-Z00 워크스테이션에는 실시간 컴퓨팅의 핵심인 NVIDIA RTX™ A5000 전문 GPU 카드 2개가 포함되어 있습니다. 워크스테이션은 NVIDIA RTX™ 그래픽 카드 A2000, A4000, A4500도 지원합니다. "원격 교육 및 3D 디자인 협업"을 위한 건축 디지털 디스플레이 및 교육 센터 전시 공간 NVIDIA Omniverse는 소프트웨어 간 파일 협업을 촉진하고 작업 효율성을 높입니다. 전체 프로젝트 수명주기에서 BIM의 핵심 개념은 모든 관련 당사자의 설계, 시공 및 운영을 통합하고 조정하는 것입니다. 이러한 당사자에는 건축가, 엔지니어, 계약자, 공급업체 및 소유자가 포함됩니다. 공유된 공통 디지털 모델을 통해 전문 팀은 실시간으로 협력하고 설계에 대해 더 잘 이해할 수 있습니다. NVIDIA Omniverse와 GIGABYTE의 원격 솔루션은 BIM과의 협업을 크게 향상시키고 탁월한 시각화 효과를 제공합니다. Li 씨는 "NVIDIA Omniverse는 전문가가 사용하는 다양한 소프트웨어 간의 통신을 촉진하는 가상 협업을 위한 확장 가능한 개방형 플랫폼입니다. 예를 들어, 다양한 전문 팀이 플랫폼에서 실시간 4D 건설 시뮬레이션에 참여하고 건설 현장의 기계 작동 및 이동에 대한 배치 및 제한 사항에 대해 배울 수 있습니다. 따라서 건설 현장의 안전성을 높일 수 있습니다. 또한 사용자는 가상 환경에서 조정 및 수정을 통해 문제를 해결하고 조정 완료 후 현장에서 공사를 진행할 수 있습니다.   W771-Z00 GPU 워크스테이션은 원격 협업 및 실시간 컴퓨팅에 대한 수요를 충족합니다. 가상 데스크톱 소프트웨어 VMware Horizon에 대한 라이선스 문제, 향후 하드웨어 확장을 위한 유연성 설계, 네트워크 설계 문제 등을 포함하여 건축 디지털 디스플레이 및 교육 센터에 "원격 교육 및 3D 디자인 협업" 전시 공간을 설정하는 과정에서 어려움이 있었습니다. 다양한 지역에 걸쳐 환경을 설정하고 시스템 설정 및 교육에 적합한 소프트웨어 및 하드웨어 통합 회사를 찾는 것입니다. Leo Wang은 "설정 과정에서 가장 어려웠던 부분은 소프트웨어와 하드웨어 제공업체 간의 통신 비용과 시스템 유지 관리 기간의 책임 분담이었습니다. 다행히 GIGABYTE와 Gemhorn의 협력은 포괄적이고 상호 보완적입니다. 불확실성과 장애물을 줄입니다."가상 환경을 구축하려면 광범위한 리소스와 컴퓨팅 성능이 필요합니다. Gemhorn의 CTO인 Eric Chang은 GIGABYTE W771-Z00 워크스테이션의 성능에 만족했습니다. "워크스테이션은 뛰어난 확장성과 강력한 성능을 제공합니다. 단일 워크스테이션으로 BIM 기술 및 개발 환경에 대한 요구 사항을 충족할 수 있습니다. 또한 실제 설정 프로세스가 매우 원활했고 소프트웨어나 하드웨어 호환성 문제도 없었습니다." 실제 전시장에서 작동하는 워크스테이션은 같은 전시장 내 숨겨진 서버룸에 배치된다. 그래서 전시장에서는 기계음이 거의 감지되지 않습니다. 방문객은 조용하고 편안한 환경에서 가상환경이 제공하는 성능과 편리함을 완벽하게 경험할 수 있습니다.     VDI 및 GPU 아키텍처로 3D 실시간 협업 워크플로우 생성 많은 유명 해외 건축 및 조경 계획 회사에서는 VDI 아키텍처와 NVIDIA Omniverse가 포함된 향상된 GPU 컴퓨팅 시스템을 사용하여 다양한 프로젝트에서 실시간 협업으로 하이브리드 워크플로우를 촉진했습니다. 예를 들어 Browning Day, CannonDesign, Multistudio 등 미국 기업에서는 하이브리드 작업 프로세스를 사용하여 다양한 지역의 디자이너와 고객 간의 효과적인 커뮤니케이션을 촉진하고 3D 렌더링 및 정보 보안 관리를 크게 향상시킵니다. Wang 씨는 동일한 솔루션을 채택하려는 기업이 "완전한 하이브리드 배포" 개념을 기반으로 계획을 진행할 수 있다고 제안했습니다. 그는 말했다, GIGABYTE는 전문 워크스테이션부터 다양한 유형의 서버 설계 및 데이터 센터 구축에 이르기까지 다양한 프런트 엔드 리소스의 요구 사항을 충족하는 제품을 출시했습니다. 또한 기존 환경과 향후 확장을 위해 서버룸과 엔드포인트에서 유연한 확장과 최적의 배포를 보장하기 위해 공냉식 및 수냉식 솔루션을 모두 제공합니다." GIGABYTE는 전문 워크스테이션부터 다양한 유형의 서버 설계 및 데이터 센터 구축에 이르기까지 다양한 프런트 엔드 리소스의 요구 사항을 충족하는 제품을 출시했습니다. 또한 기존 환경과 향후 확장을 위해 서버룸과 엔드포인트에서 유연한 확장과 최적의 배포를 보장하기 위해 공냉식 및 수냉식 솔루션을 모두 제공합니다."요약하면, "원격 교육 및 3D 디자인 협업" 솔루션에는 자원 할당과 원격 작업이라는 두 가지 핵심 개념이 포함됩니다. 이 솔루션은 학교는 물론 다양한 지역의 사무실, 작업장, 연구소 등 많은 사람 간의 프로젝트 커뮤니케이션과 협업이 필요한 조직에 매우 적합합니다.

상세보기

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 1부: CPU 및 GPU

2023.09.25

[GIGABYTE] AI에 적합한 서버를 선택하는 방법은 무엇입니까? 1부: CPU 및 GPU

생성적 AI와 기타 인공 지능의 실용적인 응용이 등장하면서 "AI 서버"의 조달은 자동차부터 의료까지 다양한 산업, 학계 및 공공 기관 모두에서 우선 순위가 되었습니다. GIGABYTE Technology의 최신 기술 가이드에서는 가장 중요한 두 가지 구성 요소인 CPU와 GPU부터 시작하여 AI 서버의 8가지 주요 구성 요소를 단계별로 안내합니다. 올바른 프로세서를 선택하면 슈퍼컴퓨팅 플랫폼을 활성화하고 AI 관련 컴퓨팅 워크로드를 가속화할 수 있습니다.     최첨단 기술의 역동적인 흐름을 잘 알고 있는 독자라면 IT  믹스 에 "AI 서버"를 도입하는  것이 공공 부문이든 민간 부문이든 관계없이 광범위한 조직의 우선순위가 되었음을 관찰했을 것입니다. 학술, 연구, 제조 또는 서비스에 중점을 두고 있는지 여부. 인공 지능이  모든 분야에서 "힘 승수"임이 입증된 것은 놀라운 일이 아닙니다 . 몇 가지 예를 통해 설명하자면 생성적 AI는 마케팅, 기록 유지, 고객 관계에 도움이 될 수 있으며,  컴퓨터 비전 과 같은 다른 AI 발명품도 도움이 될 수 있습니다. 유통 센터나 고속도로 요금소와 같은 다양한 시설의 생산성과 효율성을 향상시킬 수 있습니다. 대부분의 기업과 기관의 경우 더 이상 AI 서버를 구매해야 하는지의 문제가 아니라, 기대에 부응할 수 있는지 확인하기 위해 '어느 서버'를 구매해야 하는지의 문제입니다. AI 및 고성능 컴퓨팅(HPC)분야의 업계 선두주자인 GIGABYTE Technology  서버 솔루션에서는 적합한 AI 서버를 선택하는 단계를 안내하기 위해 이 기술 가이드를 구성했습니다. 두 부분으로 구성된 이 기사 중 1부에서는 AI 서버의 핵심인 두 가지 프로세서 제품인 CPU와 GPU에 중점을 둘 것입니다. 귀하의 특정 요구 사항에 맞는 서버 프로세서가 무엇인지, 귀하의 도구 키트에 강력한 슈퍼컴퓨팅 AI 플랫폼을 추가하는 현명한 결정을 내릴 수 있는 방법에 대해 조언해 드립니다.자세히 알아보기: 《  인공 지능 개발 및 응용을 위한 GIGABYTE AI 서버소개  》 《 GIGABYTE의 HPC 서버 에 대한 추가 정보  》     AI 서버에 적합한 CPU를 선택하는 방법은 무엇입니까? 서버에 관한 모든 논문이 그러하듯이 우리의 분석은   모든 컴퓨터의 심장이자 영혼인 중앙 처리 장치(CPU) 에서 시작됩니다. CPU는 사용자로부터 명령을 수신하고 원하는 결과를 제공하는 "명령 주기"를 완료하는 주요 "계산기"입니다. 따라서 AI 서버를 그토록 강력하게 만드는 가장 큰 부분은 그 중심에 있는 CPU입니다.현재 제공되는 제품에 익숙한 분들은 AMD와 Intel CPU를 하나씩 비교할 수 있을 것으로 예상할 수 있지만 그보다 더 복잡합니다. 사실, 이 두 업계 리더는 Intel의 4세대 Intel® Xeon® CPU 라인과 AMD의 AMD EPYC™ 9004 CPU 라인이 CISC 의 정점을 대표하며 CPU 비즈니스의 최전선에 서 있습니다. 기반 x86 프로세서. 성숙하고 검증된 에코시스템과 결합된 탁월한 성능을 찾고 있다면 이러한 칩 제조업체의 최고 제품 중 하나를 선택하면 문제가 없을 것입니다. 또는 예산이 문제라면 Intel® Xeon® 및 AMD EPYC™ CPU의 이전 버전을 고려해 볼 수 있습니다. AMD의 Ryzen™ 시리즈는 더 적은 수의 코어  와 더 제한된  멀티스레딩 기능 으로 AI 워크로드를 처리할 수 있는 경우 좋은 입문용 선택이기도 합니다   .더 알아보기: 《 AMD CPU로 구동되는 GIGABYTE 서버 에 대한 추가 정보  》 《 Intel CPU로 구동되는 GIGABYTE 서버에대한 추가 정보  》그러나 끊임없이 확장되는 AI 환경에서는 AMD와 Intel 외에 다른 선택이 있습니다. RISC 기반 CPU는 슈퍼컴퓨팅 분야에서 강력한 경쟁자가 되었습니다. RISC 프로세서가 채택한 보다 단순화된 명령 세트 아키텍처(ISA)는 더 많은 코어를 포함하면서 전력 소비가 적다는 것을 의미하므로 x86 프로세서와 동등한 컴퓨팅 능력을 보여줄 수 있습니다. 거의 모든 모바일 및 엣지 장치 (읽기: 스마트폰)가 RISC 칩에서 실행된다는 사실은   RISC 기반 CPU가  "클라우드 네이티브" 라는 추가적인 이점을 가지고 있음을 의미합니다.즉, 현장의 장치에서 수집한 데이터를 변환하기 위해 컴파일러가 필요하지 않습니다. 따라서 AI 워크로드에 모바일 및 에지 장치에서 제공되는 데이터가 포함된 경우 RISC 제품을 고려해 볼 수 있습니다.RISC 기반 CPU 중 가장 유명한 라인 중 하나가 ARM입니다. GIGABYTE는 Ampere가 구축한 CPU로 구동되는 광범위한 ARM 서버를 보유하고 있습니다. 가장 발전된 Ampere® CPU는 단일 프로세서에 약 200개의 코어를 포함하는 동시에 동급 최고의 와트 대비 성능 비율을 제공하여 TCO를 줄이는 데 큰 도움이 됩니다. ARM 라인업에 추가된 또 다른 흥미로운 새 기능은 NVIDIA Grace™ CPU 슈퍼칩입니다. 이 슈퍼칩은 ARM 코어와 900GB/s NVLink-C2C 인터커넥트, 오류 정정 코드(ECC) 메모리를 갖춘 세계 최초의 LPDDR5X 등 NVIDIA 특허 기능을 결합합니다. NVIDIA의 AI 소프트웨어 제품군을 자주 사용하고 해당 CPU 하드웨어를 채택하고 싶다면 GIGABYTE의  H263-V60  고밀도 서버가 AI 슈퍼컴퓨팅 플랫폼입니다.자세히 알아보기:《에 대한 추가 정보 GIGABYTE의 ARM 서버》 《 GIGABYTE의 고밀도 서버에 대한 추가 정보  》 이 시점에서는 서버에 CPU 소켓을 1개 또는 2개 원하는지 결정하는 일만 남았습니다. 2개의 CPU 소켓으로 구성된 고밀도 구성은 일반적으로  더 높은 전력 소비와 더 까다로운 열 관리 비용으로 더 나은 성능과 가용성을 제공합니다. 이것이 문제인 경우 AI 컴퓨팅 요구 사항을 충족할 만큼 CPU에 충분한 코어가 있는 한 단일 소켓 변형을 고려할 수 있습니다. 완전하지는 않지만 이 순서도는 AI 워크로드에 가장 적합한 CPU 설정에 대한 좋은 아이디어를 제공합니다. AI 서버에 적합한 GPU를 선택하는 방법은 무엇입니까? AI 서버의 중수소는  그래픽 처리 장치 또는 GPU 입니다 . 이는 CPU가 AI 워크로드를 훨씬 더 빠르게 처리하는 데 도움이 되는 가속기 역할을 합니다. 그 이유는 GPU에는 CPU 도구 상자의 단순화된 버전이 탑재되어 있지만 그 수가 훨씬 더 많기 때문입니다. 결론은 GPU가 작업을 더 작은 세그먼트로 나누고  병렬 컴퓨팅을 통해 동시에 처리할 수 있다는 것입니다 . 특히 워크로드가 그래픽 데이터로 구성된 경우(AI의 경우가 자주 발생함)자세히 알아보기:《기술 가이드:  CPU와 GPU: 귀하에게 적합한 프로세서는 무엇입니까? 》 《 GIGABYTE의 GPU 서버에 대한 추가 정보  》AI 서버용 GPU를 선택할 때 다음과 같은 질문을 함으로써 분야를 좁히는 데 도움이 될 수 있습니다. AI 워크로드의 특성이 시간이 지남에 따라 급격하게 변할 가능성이 있습니까? 대부분의 최신 GPU는 매우 특정한 작업을 위해 설계되었습니다. 해당 칩 아키텍처는 AI 개발 또는 애플리케이션의 특정 하위 집합에 적합할 수 있습니다. 그러나 서버가 다양한 범위의 과제를 처리할 수 있는 유연성을 발휘하기를 원한다면  FPGA  ("필드 프로그래밍 가능 게이트 어레이") 구성을 기반으로 하는 GPU가 더 나은 선택일 수 있습니다. ASIC("응용프로그램별 집적 회로") 칩과 달리 FPGA 칩은 제조 후 다시 프로그래밍하여 다양한 기능을 수행할 수 있습니다. AMD가 인수한 Xilinx는 유명한 FPGA 칩 제조업체였습니다. 많은 GIGABYTE 서버는 FPGA 가속기와 호환됩니다.다음으로 고려해야 할 질문은 AI 훈련  이나  추론 에 주로 참여할 것인지입니다  . 이 두 프로세스는 "제한된 메모리" AI의 모든 최신 반복의 기초입니다.  훈련 중에 AI 모델은 수십억, 심지어는 수조 개의 매개변수가 포함된 대량의  빅데이터를 수집합니다. 일관되게 올바른 출력을 생성할 수 있을 때까지 알고리즘의 "가중치"를 조정합니다. 추론 중에 AI는 훈련의 '기억'을 활용하여 현실 세계의 새로운 입력에 반응합니다. 이 두 프로세스는 모두 컴퓨팅 집약적이므로 작업 속도를 높이기 위해 GPU 확장 카드와 모듈이 설치됩니다.자세히 알아보기:《기술 가이드:  생성 AI를 활용하려면 "훈련" 및 "추론"에 대해 배워야 합니다. 》《자주 묻는 10가지 질문으로 AI에 대한 지식을 강화하세요》AI 훈련의 경우 특정 GPU에는 프로세스를 간소화할 수 있는 특수 코어와 "엔진"이 내장되어 있습니다. 좋은 예는 32페타플롭스 이상의 FP8  딥 러닝  성능을 제공할 수 있는 NVIDIA HGX™ H100 8-GPU입니다. 이 모듈은 GIGABYTE의  G593-SD0 ,  G593-SD2 및  G593-ZD2  서버에 통합되어 있습니다. NVIDIA HGX™ H100 4-GPU라고 하는 4개의 GPU가 포함된 모듈 변형도 있습니다. GIGABYTE G363-SR0 에 통합되어  액체 냉각을 지원하여  데이터 센터의  PUE를  높이는 동시에 칩의 잠재력을 최대한 활용합니다. . 각 H100 SXM5 GPU에는 새로운 FP8 데이터 유형을 사용하는 4세대 Tensor 코어와 모델 훈련을 최적화하는 "Transformer Engine"이 포함되어 있습니다. 최대 900GB/s의 대역폭을 제공하는 NVLink®는 프로세서를 연결하는 데 사용되며 NVSwitch는 클러스터를 조정하는 데 사용됩니다. AMD의 Instinct™ MI300X는 OCP(Open Compute Project)를따르는 강력한 대안입니다.  OAM 표준. 그 전문 분야 중 하나는 엄청난 메모리와 데이터 처리량인데, 이는 LLM(대형 언어 모델)에서 볼 수 있는 것과 같은 생성 AI 워크로드에 중요합니다. 이를 통해 400억 개의 매개변수가 있는 모델인 Falcon-40과 같은 LLM을 단일 MI300X 가속기에서 실행할 수 있습니다. AMD Instinct™ 플랫폼은 AI 컴퓨팅의 최첨단 성능을 위해 최대 8개의 MI300X GPU를 결합하는 모듈입니다. 곧 GIGABYTE 서버에 출시될 예정입니다.항상 그렇듯이, 예산 제약 내에서 유지하기 위해 약간의 성능을 포기해야 하거나 AI를 교육하는 데이터 세트가 그다지 방대하지 않은 경우 AMD 및 NVIDIA의 다른 제품을 고려할 수 있습니다. GIGABYTE는 AMD Instinct™ MI200 시리즈를 지원하는 포괄적인 솔루션 제품군을 보유하고 있습니다.  가속기의. GIGABYTE G493-SB0 ,  G293-S40 ,  G293-S41 및  G293-S45 에서 지원되는 NVIDIA L40S GPU는  AI 훈련에도 적극 권장됩니다. R162  -Z11  랙 서버는 컴퓨팅 모듈은 포함하지 않지만   최대 3개의 NVIDIA GPU를 지원할 수 있는 PCIe 슬롯이 있는 다목적 서버의 또 다른 좋은 예입니다.자세히 알아보기: 《 GIGABYTE의 랙 서버에 대한 추가 정보  》《사례 연구:  GIGABYTE GPU 서버가 NCKU의 슈퍼컴퓨팅 챔피언십 우승을 도왔습니다 .》 GPU는 AI 워크로드 처리의 핵심이므로 실제 요구 사항에 따라 올바른 옵션을 선택하는 것이 중요합니다.   AI 추론을 위해서는 사용자 시나리오별 장점이 있는 GPU를 찾아보세요. 예를 들어, 시장에 출시된 최고의 AI 추론 서버 중 하나는 GIGABYTE  G293-Z43 입니다 . 이 서버에는 2U 섀시에 16개의 AMD Alveo™ V70 카드로 구성된 고밀도 구성이 들어 있습니다. 이러한 GPU는 외부 메모리 없이 데이터가 AI 모델의 계층을 통과할 수 있게 해주는 적응형 데이터 흐름 아키텍처로 유명한 AMD의 XDNA™ 아키텍처를 기반으로 합니다. 이는 성능을 향상시키고 대기 시간을 낮추는 효과가 있어 G293-Z43은 매우 까다로운 AI 워크로드에 이상적인 솔루션이 됩니다. 여러 개의 PCIe Gen 4(또는 그 이상) 확장 슬롯이 있는 GIGABYTE 서버는 AI 추론 워크로드 처리를 목표로 하는 NVIDIA A2 Tensor Core GPU 및 L4 Tensor Core GPU와도 호환됩니다.추론 워크로드가 주로 클라우드에서 발생하는 경우 전력 효율성 및 신호 처리와 같은 다른 속성이 거래를 성사시킬 수 있습니다. 이 시나리오에서는 클라우드 컴퓨팅의 고유한 요구 사항을 해결하므로 에지에서 보다 효과적으로 추론할 수 있는 Qualcomm® Cloud AI 100 GPU를 고려할 수 있습니다  . 이러한 가속기는 G 시리즈 GPU 서버, R 시리즈 랙 서버 및 E 시리즈 엣지 서버를 포함한 다양한 GIGABYTE 서버에 배포될 수 있습니다  .마지막으로, AI 훈련에 대한 컴퓨팅 요구 사항은 일반적으로 추론보다 높기 때문에 대부분의 훈련 서버는 추론 워크로드에도 사용할 수 있습니다. 업계 리더들이 주도하는 또 다른 흥미로운 트렌드는 모든 범주의 AI 및 HPC 워크로드에 대해 두 가지 장점을 모두 제공하는 "CPU + GPU" 패키지입니다. GIGABYTE의 H223-V10  및  H263-V11  고밀도 서버에서 사용할 수 있는 NVIDIA Grace Hopper™ Superchip  과 AMD의 첫 번째 APU(가속 처리 장치)인 AMD Instinct™ MI300A는 모두 이 새로운 사고 방식의 완벽한 예입니다. . 현재 존재하는 가장 정교한 슈퍼컴퓨팅 플랫폼으로 작업하려면 이 제품을 선택하십시오."AI에 적합한 서버를 선택하는 방법"에 관한 GIGABYTE 기술 가이드를 읽어주셔서 감사합니다. 1부: CPU 및 GPU”. AI 서버의 다른 구성 요소를 선택하는 방법에 대해 자세히 알아보려면 "2부: 메모리, 스토리지 및 기타"를 읽어보세요. 이 기사가 도움이 되고 유익한 정보가 되었기를 바랍니다.

상세보기

[GIGABYTE] 인공 지능에 관해 자주 묻는 10가지 질문

2023.09.14

[GIGABYTE] 인공 지능에 관해 자주 묻는 10가지 질문

인공 지능. 세상은 그 이름으로 떠들썩합니다. 그러나 우리의 세계와 역사를 재편하고 있는 이 흥미롭고 새로운 추세에 대해 얼마나 알고 계십니까? 걱정하지 마세요, 친구들. GIGABYTE 기술이 당신을 보호해 드립니다. AI의 모든 면에서 알아야 할 내용을 빠르고 읽기 쉽고 소화하기 쉬운 10개의 Q&A로 제공합니다!     1. 인공지능(AI)이란 무엇입니까? 인공 지능은  1950년대에 처음 제안된 컴퓨터 과학 의 한 분야로, 독립적인 의사 결정 및 비판적 사고와 같이 인간과 유사한 행동을 보이는 기계를 만드는 것과 관련이 있습니다. 그 이유는 그러한 "똑똑한" 기계가 더 많은 문제를 해결할 수 있을 것이고, 인간이 작업하기 더 쉬울 것이기 때문입니다.지난 수십 년 동안 AI를 개발하기 위해 성공 정도에 따라 다양한 방법이 활용되었습니다. 2010년대부터 머신러닝  ,  딥러닝 등 혁신적인 신기술 덕분에 AI는 비약적으로 발전했습니다  . 현재 AI 상태는 컴퓨터 비전을 통해 시각적 패턴을 인식하고 , 컴퓨터 비전을 통해 인간과 대화할  수 있을 정도로 최첨단이다. 자연어 처리(NLP)를 활용 하고, 생성 AI를 활용해 사실적인 이미지부터 관광 일정까지 다양한 콘텐츠를 제작합니다. 업계 리더들은 AI가 곧 자율주행차 조종과 같이 전통적으로 '공상과학'으로 간주되었던 더 많은 작업을 수행할 수 있게 될 것이라고 예측합니다.자세히 알아보기:《AI의 힘:  자동차 및 운송 산업에서 AI의 이점을 활용하는 방법》《사례 연구:  GIGABYTE를 사용하여 자율 주행 자동차의 두뇌 구축》     2. AI에는 어떤 유형이 있나요? AI는 다양한 기술적 혁신을 포괄하는 용어이기 때문에 컴퓨터에서 체스를 두는 AI와 콘텐츠를 생성하거나 자동차를 운전할 수 있는 AI를 혼동하기 쉽습니다. 더 쉽게 하기 위해 AI를 "능력"이나 "기능"으로 구분할 수 있습니다.'능력'을 기반으로 하는 AI의 세 가지 유형은 좁은 인공지능(ANI, '응용 AI' 또는 '약한 AI'라고도 함), 인공일반지능(AGI, '풀 AI' 또는 '강한 AI'라고도 함)입니다. 및 인공 초지능("ASI" 또는 "초지능")이 있습니다. 현재 AI의 모든 형태는 ANI입니다. 즉, 매우 특정한 작업을 수행하도록 설계되었으며 새로운 기술을 습득할 수 없습니다. AGI는 새로운 작업을 가르칠 수 있다는 점에서 인간과 동등합니다. 이는 아직 미래의 일이지만 생성 AI와 같은 발명으로 기반이 마련되었습니다. ASI는 아이작 아시모프(Isaac Asimov)와 아서 C. 클라크(Arthur C. Clarke)가 쓴 것과 같이 AI가 지능 면에서 인간을 능가하는 공상 과학 소설의 소재입니다.AI는 '기능성'에 따라 '반응형 기계', '제한된 메모리', '마음 이론', '자기 인식'으로 구분할 수 있습니다. 가장 유명한 "반응형 기계"는 체스나 바둑에서 인간 그랜드마스터를이긴 슈퍼컴퓨터입니다. 슈퍼컴퓨터는 규칙을 기억하고 자극에 반응할 수 있지만 기억을 유지할 수 없기 때문에 "연습"을 통해 향상되지 않습니다. 미디어 스트리밍 플랫폼에서 사용하는 추천 엔진과 이메일 서버에서 사용하는 스팸 필터도 "반응형 시스템"입니다. "제한된 메모리"는 과거 데이터를 통해 학습할 수 있기 때문에 더욱 발전되었습니다. AI는   방대한 양의  빅데이터를 분석  하고 알고리즘의 매개변수를 조정하는 AI 훈련을 통해 '학습'합니다. AI 추론 중 , AI가 새로운 정보와 상호 작용하는 곳에서 올바른 결정을 내리기 위해 훈련을 활용합니다. 생성 AI부터 자율주행차까지 대부분의 최신 형태의 AI는 '제한된 메모리' AI입니다.'마음 이론'과 '자기 인식' AI는 모두 여전히 이론적인 개념입니다. “마음 이론” AI는 인간의 감정을 이해하고 동일한 방식으로 반응할 수 있습니다. 왜냐하면 그것이 인간 의사소통의 핵심 부분이기도 하기 때문입니다. "자기 인식" AI는 인간 사용자뿐만 아니라 자신을 인공 구조물로 이해합니다. 그러한 AI는 자신의 "감정"과 "목표"를 개발하여 실제로 인간의 통제를 넘어서게 됩니다. AI를 더 잘 이해하기 위해 '능력'과 '기능'으로 구분할 수 있습니다. 현재 가장 발전된 형태의 AI조차도 공상 과학 소설에 묘사된 AI와는 여전히 거리가 멀습니다. 3. AI는 어떻게 작동하나요? 기본적으로 AI는 새로운 데이터를 해석하고, 실행해야 하는 알고리즘을 이해하고, 데이터를 처리하고, 결과를 제공할 수 있는 대규모 데이터 세트와 결합된 일련의 컴퓨터 알고리즘입니다. 최근 몇 년 동안 AI 개발은 딥 러닝이라는 기계 학습의 하위 집합에 의해 가속화되었습니다. 딥 러닝을 통해 AI는 경험을 통해 학습하고 인간의 개입이 거의 또는 전혀 없이 행동을 수정할 수 있습니다.AI가 학습에 참여하는 방식을 AI 훈련이라고 합니다. 훈련하는 동안 수십억, 심지어는 수조 개의 매개변수가 포함된 막대한 데이터 세트가 인간의 두뇌처럼 구조화된 인공 신경망(ANN)에 입력됩니다. 데이터가 네트워크의 각 계층을 통과할 때 알고리즘은 출력의 유효성을 확인하고 가중치 점수 또는 "편향"을 데이터 매개변수에 할당합니다. 예측(순방향 전파)과 피드백(역방향 전파)의 반복적인 반복을 통해 가중치가 매우 정확해지기 때문에 항상 네트워크를 통해 올바른 경로가 선택됩니다. 간단히 말해서, AI는 다양한 입력에 대한 올바른 응답이 무엇인지 추측하는 연습을 여러 번 수행하여 새로운 데이터가 제시될 때 항상 올바른 추측을 내립니다.AI 추론 중에 AI 모델은 실제 세계에서 레이블이 지정되지 않은 새로운 데이터와 상호 작용합니다. 올바른 출력을 생성하기 위해 훈련의 "기억"에 의존합니다. 추측이 정확한지 여부에 관계없이 다음 AI 훈련을 위해 결과를 저장할 수 있어 AI가 더욱 향상됩니다.자세히 알아보기:《   인공 지능 개발에 사용되는 GIGABYTE AI 서버소개》 《기술 가이드:  생성 AI를 활용하려면 "훈련" 및 "추론"에 대해 배워야 합니다》     4. AI를 통해 어떤 혜택을 얻을 수 있나요? 문제의 사실은 당신이 이미 그렇다는 것입니다. 검색 엔진에 질문을 입력하면 원하는 결과가 나옵니다. 고속도로에서 운전할 때 전자 요금 징수 시스템이 속도를 줄이지 않고도 번호판을 읽을 때; ChatGPT에 이메일 작성을 요청하는 것이 현대 AI의 이점입니다.앞으로 AI는 다양한 산업에 의미 있는 변화를 가져와 우리 일상생활을 완전히 변화시킬 것이 확실합니다. 몇 가지 예를 들어보면  첨단 운전자 보조 시스템(ADAS)이 있습니다. 우리 자동차는 진정한 자율성을 달성할 때까지 정교함의 다양한 단계를 거쳐 발전할 것입니다. 의사는 AI 지원 의료 영상을 사용하여 질병의 징후를 보다 빠르고 정확하게 발견할 수 있습니다. 농부들은 AI를 사용하여 정확한 날씨 예측을 하거나 위성 이미지를 통해 위험한 감염 증상을 발견함으로써 농작물을 보호할 수 있습니다.적극적으로 나서면 AI의 혜택을 더욱 누릴 수 있다는 것은 말할 필요도 없습니다. 결국, 현대 AI 애플리케이션은 너무나 새롭고 판도를 바꾸고 있으므로 다양한 분야의 전문가들이 매일 이를 활용하는 혁신적인 방법을 발견하고 있습니다. AI의 보상을 얻을 수 있는 방법은 여러분의 상상력에 달려 있습니다.자세히 알아보기:《사례 연구:  스페인의 IFISC는 GIGABYTE 서버를 사용하여 귀중한 올리브 숲을 보호합니다.》《사례 연구:  GIGABYTE PILOT, 대만 최초의 자율 주행 버스 운행》     5. AI를 다루는 사람들은 어떤 사람들인가요? 어떤 의미에서 우리는 모두 AI 최종 사용자입니다. 학생이든 직업이 있든, 제조업이든 서비스업에 종사하든, 18륜차를 운전하든 섬세한 뇌 수술을 하든 AI는 어떤 형태나 형태로든 빵과 버터의 일부가 되었습니다. AI 서비스를 개발하고 제공하는 사람들에 대해 이야기하고 있다면 이는 하드웨어 제조업체 업스트림, AI 모델 개발자, 모델 허브 및 MLOps  서비스 미드스트림,   전용 애플리케이션을 제공하는 클라우드 서비스 제공업체(CSP) 로 시작하는 전체 공급망이 될 것입니다.  및 다운스트림 서비스. 이 분야는 다양한 분야로 가득 차 있고 모든 종류의 전문가가 거주하는 광범위한 분야입니다. 실제로 유일하게 통합된 스레드 중 하나는 모든 전문가가 동일한 도구 , 즉 다음 섹션에서 논의할 서버를 사용한다는 것입니다.학계 및 연구 기관도 공급망에서 중요한 역할을 한다는 점에 유의해야 합니다. 학계는 수익성 있는 사업으로 전환될 수 있는 혁신적인 서비스를 창출하든, 참가자들이 기존 도구를 사용하여 세계 기록을 경신하는 슈퍼컴퓨팅 대회를 개최하든 관계없이 항상 AI 개발의 한계를 뛰어넘고 있습니다. 이들 연구자가 주로 서버를 대상으로 작업한다는 사실도 놀랄 일이 아닙니다.자세히 알아보기:《사례 연구:  Rey Juan Carlos University가 AI를 통해 세포 노화 메커니즘 탐구》《사례 연구:  GIGABYTE가 NCKU 슈퍼컴퓨팅 팀이 NLP 세계 기록을 경신하도록 지원》 다음은 AI 공급망의 주요 플레이어에 대한 몇 가지 예입니다. GIGABYTE는 투자사인 Myelintek을 통해 서버 솔루션뿐만 아니라 MLOps 서비스도 제공합니다. 6. AI에는 어떤 종류의 컴퓨터가 사용되나요? AI는 서버라고 불리는 특별한 종류의 엔터프라이즈급 컴퓨터에서 실행됩니다. 개인용 컴퓨터와 모바일 장치도 AI를 실행할 수 있지만 소비자급 하드웨어로 인해 그 기능이 심각하게 제한됩니다. 이것이 대부분의 AI 서비스가 PC나 스마트폰을 클라우드의 컴퓨팅 리소스에 연결할 수 있도록 인터넷 연결을 요구하는 이유입니다.서버 사용의 주요 이점은 이러한 기능을 수행하기 위해 특별히 구축된 다양한 서버에 특수 역할을 할당할 수 있다는 것입니다. 예를 들어 일부 서버는 고성능 컴퓨팅(HPC) 용으로 설계되었지만  다른 서버는 스토리지 측면에서 탁월할 수 있습니다. 사용자의 처분에 특화된 서버 네트워크를 배치함으로써 효율적이고 효과적이며 신뢰할 수 있는 다양한 AI 서비스를 이용할 수 있습니다.서버는 일반적으로 다음 위치에 보관됩니다.  중단 없는 운영과  고가용성을 보장하기 위한 데이터 센터  또는  서버 팜 . AWS(Amazon Web Service), GCP(Google Cloud Platform), Microsoft Azure와 같은 CSP는 수천 대의 서버를 호스팅하기 위해 대규모 데이터 센터를 구축할 수 있습니다. 내부 AI 서비스를 호스팅하기 위해 민간 조직 내에 소규모  서버실을  구축할 수도 있습니다. 실제로 워크스테이션으로 알려진 서버 클래스인 일부 강력한 데스크톱 컴퓨터는 적당한 양의 AI 작업 부하도 처리할 수 있습니다. 자세히 알아보기: 《  GIGABYTE HPC 서버를 구입하여  고성능 컴퓨팅의 이점을 누리십시오》 《  데스크톱에 엔터프라이즈급 컴퓨팅을 배포하려면 GIGABYTE 워크스테이션을 선택하십시오  》《기술 가이드:  서버란 무엇입니까? 》     7. AI 서버란 무엇인가요? 맞춤형 서버 품질로 인해 전문 AI 서버가 탄생했습니다. GIGABYTE에는  AI 서버 및 기타 제품 주제에 대한 전용 웹페이지가 있습니다 . 간단히 말하면, AI 서버는 다음과 같은 점에서 일반 서버와 다릅니다.AI 훈련과 AI 추론 모두 컴퓨팅 집약적이므로 강력한 프로세서가 서버에 추가되어 슈퍼컴퓨팅 플랫폼으로 전환됩니다. 일반적으로 서버에는  중앙 처리 장치(CPU)  와  그래픽 처리 장치(GPU)라는 두 가지 유형의 프로세서가 있습니다 . AI 서버에는 두 종류의 칩의 최신 버전이 포함될 가능성이 높습니다.CPU의 경우 사용자가 CISC와 함께 작업하려는 경우 AMD 또는 Intel에서 만든 최상위 x86 칩이 선택됩니다  .기반 에코시스템 또는 사용자가 RISC 기반 제품 의 클라우드 네이티브 특성을 선호하는 경우 ARM 칩  . 반면, GPU는 CPU가 더욱 빠르게 계산하도록 돕는 가속기입니다. AI 워크로드의 특성에 따라 사용자는 다양한 GPU 모듈이나 확장 카드를 선택할 수 있습니다. 예를 들어, GIGABYTE  G593-SD0 ,  G593-SD2 및  G593-ZD2  는 지구상에서 가장 강력한 AI 훈련 모듈 중 하나인 NVIDIA HGX™ H100 8-GPU와 통합된 GIGABYTE의 세 가지 서버입니다. GIGABYTE  G293-Z43은  16개의 AMD Alveo™ V70 카드로 구성된 고밀도 구성을 갖추고 있어 AI 추론에 최적화된 플랫폼입니다.메모리, 스토리지, PSU와 같은 AI 서버의 다른 구성 요소도 서버가 방대한 양의 데이터를 효율적으로 처리하고 정교한 AI 계산을 수행할 수 있도록 최신 혁신 기술을 채택할 가능성이 높습니다.자세히 알아보기: 《 AMD CPU로 구동되는 GIGABYTE 서버에 대한 추가 정보  》 《 Intel CPU로 구동되는 GIGABYTE 서버 에 대한 추가 정보  》 《 GIGABYTE의 ARM 서버 에 대한 추가 정보  》 간단히 말해서 AI 서버는 최첨단 프로세서와 기타 구성 요소를 사용하여 가장 강력한 컴퓨팅 성능으로 AI 개발 및 응용 프로그램을 지원합니다. 8. AI 발전에서 GIGABYTE 기술의 역할은 무엇입니까? GIGABYTE Technology는 AI 및 HPC 서버, 서버 마더보드 및 워크스테이션 분야에서 세계적으로 유명한 업계 리더입니다. AI 발전에서 AI의 역할은 하드웨어와 소프트웨어를 모두 포괄합니다. 서버 측면에서 GIGABYTE는 AI 서버의 전문 라인뿐만 아니라 데이터 센터에서 다양한 역할을 수행하는 다양한 서버 시리즈의 포괄적인 포트폴리오를 보유하고 있습니다.  예를 들어, GPU 가속  이기종 컴퓨팅을 위한 G-시리즈 GPU 서버 ,   데이터 스토리지를 위한  S-시리즈 스토리지 서버 , 다양한 애플리케이션을 위한 R-시리즈 랙 서버  , 컴팩트한  멀티 노드  컴퓨팅  을 위한 H-시리즈 고밀도 서버가 있습니다.  차대.GIGABYTE는 공급망 상위에 있는 칩 제조업체와 긴밀히 협력하여 당사의 서버 솔루션에 AMD, Intel, NVIDIA 및 기타 공급업체의 최신 CPU 및 GPU가 장착되도록 합니다. 업계의 다른 주요 업체들과의 긴밀한 관계를 통해 GIGABYTE를 구입하시면 AI를 위한 가장 발전되고 인증된 컴퓨팅 플랫폼을 얻게 됩니다. 예를 들어, GIGABYTE G593-SD0 GPU 서버는 NVIDIA 인증을 받은 최초의 SXM5 서버였습니다.  GIGABYTE는 또한 실험실에서 도로 상황을 시뮬레이션하기 위해 대만 대학(NTU)이 개발한 "고정밀 교통 흐름 모델" 과 같이 엣지 장치의 많은 데이터로 작업하는 사용자를 위해 ARM CPU로 구동되는 서버를 생산하는 데 앞장섰습니다.  자율주행차 테스트를 위해핵심 서버 구성 요소 외에도 GIGABYTE에는 AI 작업 부하를 처리하는 데 도움이 되는 동시에 다른 이점을 제공하는 최첨단 발명품도 포함되어 있습니다.  GIGABYTE 는 프로세서에서 발생하는 열을 방출하기 위해 공기 대신 액체 냉각수를 사용하는 완전한  액체 냉각 및 침수 냉각 서버 솔루션 라인을 보유하고 있습니다. 이러한 혁신적인 열 관리 시스템은 프로세서가 최대  TDP를 달성하는  동시에 데이터 센터의  PUE를 향상시켜 탄소 배출을 효과적으로 줄이는 데 도움이 됩니다. 기타 부가 가치 서비스로는 GIGABYTE 서버 구입 시 무료로 제공되는 원격 관리 소프트웨어 도구인 GIGABYTE Management Console(GMC) 및 GIGABYTE Server Management(GSM)가 있습니다.소프트웨어 측면에서 GIGABYTE의 피투자 회사인 MyelinTek은  MLOps용 DNN 교육 어플라이언스를 제공합니다  . 이 패키지는 AI 개발자에게 데이터 세트를 관리하고 AI 모델 분석에 참여할 수 있는 이상적인 환경을 제공합니다.     9. AI의 주요 개발자는 누구입니까? AI 개발의 대부분은 컴퓨팅 기능의 발전에 달려 있기 때문에 앞서 언급한 AMD, Intel, NVIDIA 등의 많은 칩 개발자는 AI 기술의 중요한 선구자로 간주됩니다. GIGABYTE Technology와 같은 서버 브랜드는 AI 개발 및 응용 프로그램에 참여하는 사용자에게 최신 제품을 제공하는 데 도움을 줍니다. 예를 들어 마드리드의 Rey Juan Carlos University는  GIGABYTE 서버로 구성된 컴퓨팅 클러스터를  사용하여 최첨단 AMD EPYC™ 및 Intel® Xeon® Scalable CPU는 물론 NVIDIA HGX™ GPU 컴퓨팅 모듈을 활용합니다. 세포 노화에 대한 연구.알파벳, 아마존, 애플, IBM, 메타, 마이크로소프트 등 글로벌 기술 대기업들도 AI 분야의 선두주자다. 그들은 다른 AI 개발자가 사용할 수 있는 하드웨어 및 소프트웨어 플랫폼을 제공하고, 자신의 제품을 활용하는 최종 사용자를 위한 새로운 AI 애플리케이션 및 서비스를 개발합니다.다른 회사들은 특정 애플리케이션을 위한 AI의 선구자입니다. 몇 가지 예를 나열하자면 OpenAI는 생성적 AI 모델뿐만 아니라 ChatGPT와 같이 해당 모델을 기반으로 구축된 AI 도구로 유명합니다. 모빌아이(Mobileye)는 이스라엘의 ADAS 및 자율주행 기술 개발업체로, 자율주행차의 도로 운행을 선도하고 있습니다.     10. AI의 미래는 무엇인가? AI가 "자기 인식"을 하거나 인간 지능을 능가하기 훨씬 전에, 일하는 방식부터 여행하는 방식, 노는 방식, 돌보는 방식까지 일상생활의 모든 측면에 도움이 되는 데 사용될 것입니다. 우리의 건강. AI 발전의 지표로 생각할 수 있는 두 가지 업계 지표가 있습니다.● 컴퓨팅 플랫폼: 처리 능력과 서버 하드웨어의 발전은 더욱 강력한 AI를 육성하는 데 도움이 될 것입니다. 따라서 하드웨어 제조업체가 더 많은 양의 데이터를 더 빠르게 계산할 수 있는 기능을 갖춘 새로운 컴퓨팅 제품을 출시할 때 AI 개발의 도약을 찾아보세요. 주목해야 할 좋은 기술 브랜드는 GIGABYTE Technology입니다! 첫째, 우리는 AI 개발을 가속화할 최신 하드웨어 기술 혁신을 갖춘 새로운 AI 서버를 지속적으로 출시하고 있기 때문입니다. 둘째, 최신 AI 관련 성공 사례와 심층 분석을 다루는 새로운 콘텐츠를 공식 웹사이트에 자주 게시하기 때문입니다.● 소프트웨어 개발: 새로운 컴퓨팅 하드웨어를 바탕으로 다양한 수직 시장에서 사용할 수 있는 새로운 AI 모델과 애플리케이션이 개발될 것입니다. 따라서 AI 소프트웨어의 혁신이 발표된 직후 새로운 AI 지원 서비스가 출시될 것으로 예상할 수 있습니다.

상세보기

[GIGABYTE] 자동차 및 운송 산업에서 AI를 활용하는 방법

2023.09.11

[GIGABYTE] 자동차 및 운송 산업에서 AI를 활용하는 방법

자동차 및 운송 산업에 종사하는 경우, 인공 지능이 이 분야에서 어떻게 새로운 기회를 창출했는지, 그리고 앞서 나가기 위해 사용할 수 있는 도구에 대한 심층 분석을 몇 분 동안 읽어 보십시오. 이 기사는 GIGABYTE Technology가 진행 중인 "Power of AI" 시리즈의 일부로, 최신 AI 관련 동향을 조사하고 용감한 비전가들이 이 흥미진진한 패러다임 전환의 이점을 어떻게 누릴 수 있는지를 설명합니다.     소개 인공지능(AI)은 자동차와 운송 산업에 엄청난 변화를 가져오는 촉매제입니다. 승객을 A 지점에서 B 지점으로 이동시키는 과정과 관련된 모든 장치에 최첨단 컴퓨팅 성능을 주입한다는 것은 우리의 차량과 도로가 인간의 입력에 의존하지 않고도 편의성과 안전이라는 목표를 달성하는 데 도움이 될 수 있음을 의미합니다. 이러한 짜릿한 패러다임 전환은 자율주행차(무인차 또는 자율주행차라고도 함)와 '스마트 교통'이라고도 알려진 지능형 교통 시스템(ITS)의 확산을 통해 가장 직접적으로 관찰할 수 있습니다.리소스:ADAS란 무엇입니까?인공 지능이란 무엇입니까?지능형교통시스템(ITS)이란 무엇입니까?     자동차 및 운송과 관련하여 AI는 광범위한 기술적 이정표를 포괄하는 포괄적인 용어입니다. 모든 이정표는 기계가 주변 세계를 "인식"하고, 데이터의 중요성을 "처리"하고, "생산"하도록 돕는 것과 관련이 있습니다. ” 실행 가능한 결과를 얻었습니다. 이것이 바로 AI에 대한 논의에서 "컴퓨터 비전" 또는 "딥 러닝"과 같은 용어가 언급되는 이유입니다. 고성능 컴퓨팅(HPC)과 엣지 컴퓨팅은 이러한 솔루션의 개발과 배포에 중요한 역할을 합니다.AI가 주도권을 잡을 수 있는 시대가 가까워짐에 따라, 대담한 새로운 혁신이 하루아침에 지형을 바꿀 수 있는 빠르게 진화하는 시장이라는 점을 인식하는 것이 중요합니다. 다음 섹션에서는 이 분야의 두 가지 대표적인 AI 혁신인 자율주행차와 ITS를 살펴보고 사용할 수 있는 도구와 기회를 찾을 때 참고할 수 있는 성공 사례를 살펴보겠습니다. 자료:컴퓨터 비전이란 무엇입니까?딥러닝이란 무엇인가요?엣지 컴퓨팅이란 무엇입니까?고성능 컴퓨팅(HPC)이란 무엇입니까?   자율주행차 교육: AI에게 운전 교육 SAE International에 따르면 주행 자동화에는 6가지 레벨이 있으며, 레벨 0은 자동화가 없는 상태이고 레벨 5는 완전 자동화입니다. 레벨 1~4는 각각 운전자 지원, 부분 자동화, 조건부 자동화, 고도 자동화를 의미한다. 개발자는 카메라, 레이더, LiDAR 등 다양한 유형의 센서에서 수집한 레이블이 지정된 데이터로 AI 모델을 "훈련"하여 자율 주행 자동차의 자동화를 발전시킵니다. AI는 실제 상황에서 라벨링되지 않은 데이터에 노출되더라도 보행자부터 교통 표지판, 다른 자동차까지 도로에서 만날 수 있는 모든 객체를 결국 인식할 수 있게 됩니다.       AI는 막대한 양의 데이터를 '연구'해야 하고 데이터의 대부분이 그래픽 형식이기 때문에 훈련 과정에는 병렬 컴퓨팅이 가능한 고급 그래픽 처리 장치(GPU)가 장착된 서버가 필수적입니다. GIGABYTE Technology의  G-시리즈 GPU 서버는  GPU 가속을 전문으로 합니다. NVIDIA의 HGX™ H100 8-GPU 컴퓨팅 모듈과 4세대 Intel® Xeon® Scalable 또는 AMD EPYC™ 9004 CPU를 각각 통합한 G593-SD0 및 G593-ZD2는 시장에서 가장 강력한 AI 슈퍼컴퓨팅 플랫폼 중  일부  입니다  .     세계적으로 유명한  이스라엘의 자율 주행 기술 개발자는  GIGABYTE의 GPU 서버를 사용하여 자사의 무인 자동차를 훈련시킵니다. 프로토타입 차량이 주행할 때마다 64테라바이트의 원시 데이터가 반환됩니다. GIGABYTE 서버는 최대 효율성으로 데이터를 처리할 수 있습니다.리소스:AI 훈련이란 무엇입니까?GPU(그래픽 처리 장치)란 무엇입니까?병렬 컴퓨팅이란 무엇입니까?   자율주행차 추론: 도로 테스트 및 배포 AI 모델이 훈련을 통해 새로운 입력에 반응하는 프로세스를 추론이라고 합니다. 이것이 바로 무인 자동차가 실제 도로를 주행할 때 수행하는 작업입니다. 즉, 일련의 센서를 통해 수집한 정보를 사전 훈련된 모델에 입력하여 제어 시스템에 대한 지침을 생성하는 것입니다. 추론 단계의 데이터는 AI를 지속적으로 개선하기 위해 다음 훈련 단계에서도 사용될 수 있습니다.     추론하는 동안 컴퓨팅 리소스는 원격이거나 온보드일 수 있습니다. GIGABYTE의  E-시리즈 에지 서버는  대기 시간과 대역폭 사용을 줄이기 위해 가능한 한 데이터 소스에 물리적으로 가까운 곳에서 계산을 수행해야 하는 에지 컴퓨팅 시나리오에 적극 권장됩니다. GIGABYTE의 독점 열 관리 및 섀시 설계 덕분에 고도로 발전된 프로세서를 초집적 및 소형 서버에 쉽게 배포할 수 있습니다. 임베디드 차량 내 컴퓨팅과 관련하여 GIGABYTE는 차량의 중심에서 AI 모바일 엣지 컴퓨팅 플랫폼 역할을 하는  자동 운전 제어 장치(ADCU)  와 ARM 기반  차량 내 텔레매틱스 제어 장치( TCU)를  통해 실시간 통신 및 차량 관리 기능을 제공합니다.     자율주행 버스가  대만 장화 해안 산업단지에서 도로를 운행했습니다. 전기셔틀버스 '윈버스(WinBus)'는 정해진 노선만 운행하면 사람의 개입 없이 운행할 수 있다. GIGABYTE의 ADCU는 차량의 센서, 배터리 및 제어 시스템을 함께 연결하여 레벨 4 "고도 자동화"를 달성하는 데 사용됩니다.리소스:AI 추론이란 무엇입니까?텔레매틱스란 무엇입니까?   자율주행차 테스트: 안전 보장을 위한 시뮬레이션 자율주행차가 도로를 주행할 준비가 되기 전에 광범위한 테스트를 수행해야 합니다. 이를 해결하는 한 가지 방법은 컴퓨터 시뮬레이션을 이용하는 것입니다. "디지털 트윈"의 맥락에서 고도로 정밀한 모델은 테스트 목적으로 도로 상태와 교통 흐름을 재현할 수 있습니다. 모델이 정확하려면 도시와 고속도로에 설치된 도로변 센서를 통해 다양한 데이터 매개변수를 수집해야 합니다. 주요 매개변수에는 차량 수, 차량 간 거리, 차량 속도가 포함됩니다.       대부분의 클라우드 컴퓨팅 장치와 마찬가지로 길가 센서는 RISC 아키텍처를 따르는 컴퓨터 칩을 사용하므로 전력 소비가 적다는 장점이 있습니다. 트래픽 흐름 모델을 보다 효율적으로 개발하려면 동일한 컴퓨팅 언어를 "말하는" 서버를 사용하는 것이 좋습니다. "클라우드 네이티브" RISC 기반 ARM 프로세서를 기반으로 구축된 GIGABYTE의  ARM 서버를 만나보세요. 이로 인해 컴퓨터 간에 "변환"하기 위해 컴파일러를 사용할 수 없을 뿐만 아니라 RISC의 특성은 각 개별 프로세서가 더 많은 코어를 제공하여 TCO를 낮추면서 성능을 높일 수 있음을 의미합니다.     대만 대학(NTU)은 GIGABYTE의  G242-P32를 사용하여 "고정밀 교통 흐름 모델"을  배양하고 있습니다  . 이는 모델 정확도를 보장하기 위해 실제 조건과 디지털 표현 간의 동기화가 0.05초 이내에 이루어져야 하는 대만의 도로 조건을 고도로 동기화되고 매우 정확하게 재현합니다. ARM 기반 CPU 덕분에 개발 시간이 절반으로 단축됩니다. 팀의 과학자들은 서버가 AI 훈련, 컴퓨터 모델 개발, 데이터 전송 등을 할 수 있는 올인원 솔루션이라고 칭찬합니다.자료:디지털 트윈이란 무엇입니까?클라우드 컴퓨팅이란 무엇입니까?RISC란 무엇인가요?코어란 무엇입니까?CPU 란 무엇입니까?     자율주행차: 요약 자동차와 운송 부문에서 인공지능의 표준을 제시하는 것 중 하나가 바로 자율주행차입니다. AI 운전자를 "훈련"하려면 엄청난 양의 데이터를 처리해야 하기 때문에 GPU 가속을 제공하는 컴퓨팅 플랫폼이 적합한 솔루션입니다. GIGABYTE는 고급 CPU와 GPU의 성능을 결합하여 슈퍼컴퓨팅 플랫폼을 사용자 손에 직접 제공하는 데 특화된 광범위한 G 시리즈 GPU 서버를 제공합니다. 좋은 예는 4세대 Intel® Xeon® 확장 가능 CPU와 NVIDIA의 HGX™ H100 8-GPU 컴퓨팅 모듈을 갖춘 G593-SD0입니다.AI 모델이 훈련되면 자율주행차는 전 세계의 새로운 데이터에 대한 올바른 응답을 선택하여 '추론'하여 안전하고 편리한 여행을 보장합니다. 온보드 컴퓨터를 통해 추론이 수행되면 GIGABYTE의 ADCU(Automated-Driving Control Unit)가 무인 차량의 두뇌 역할을 할 수 있습니다. 지원을 제공하기 위해 원격 리소스가 필요한 경우 GIGABYTE의 E-시리즈 엣지 서버를 데이터 센터 외부 위치에 배포하여 대기 시간과 대역폭 사용을 줄이면서 적용 범위를 넓힐 수 있습니다.훈련 및 추론 외에도 자율주행차는 컴퓨터 시뮬레이션을 통해 테스트되어 도로 준비 상태를 보장할 수 있습니다. "고정밀 교통 흐름 모델"은 연구실에서 도로 상황을 재현하는 한 가지 방법입니다. 이러한 모델은 길가 센서를 통해 수집된 데이터에 크게 의존하기 때문에 해당 장치와 동일한 명령 세트 아키텍처를 따르는 서버는 효율성을 향상시킬 수 있습니다. GIGABYTE의 "클라우드 네이티브" ARM 서버는 RISC 아키텍처를 기반으로 하며 사례 연구에서 개발 시간을 절반으로 단축한 것으로 나타났습니다.     지능형 교통시스템 거버넌스: AI 기반 생태계 구축 AI 물결은 자동차 부문에 혁명을 일으킬 뿐만 아니라 우리의 교통 생태계에도 광범위한 영향을 미칩니다. 결국, 자동차를 운전할 만큼 똑똑한 인공 지능이 번호판을 읽고 요금소를 관리할 수도 있다는 것은 당연한 일입니다. 앞으로 AI가 점점 더 많은 거버넌스 관련 작업을 처리하는 것은 불가피합니다.     주차장과 고속도로 요금소 모두에 적용 가능한 컴퓨터 비전을 활용해 번호판의 숫자와 문자를 인식하는 것은 AI 추론의 대표적인 예입니다. 입력되는 양이 어마어마합니다. 예를 들어 대만의 ETC(Electronic Toll Collection) 시스템을 사용하면 매일 1,600만 개의 새로운 데이터 포인트가 처리됩니다. GIGABYTE의 G293-Z43 과 같은 강력한 AI 추론 서버는  작업에 적합합니다. 2U 섀시에 16개의 AMD Alveo™ V70 카드로 구성된 업계 최고의 초고밀도 구성은 최소한의 물리적 설치 공간과 대기 시간으로 최대의 가속을 제공합니다.     앞서 언급했듯이 추론 단계의 피드백을 사용하여 AI 모델 출력의 정확성을 향상시킬 수 있습니다. AI를 지속적으로 업데이트하고 개선하기 위해 파이프라인을 설정하는 방식을 MLOps라고 합니다. GIGABYTE의 피투자 회사인 MyelinTek Inc.는  운송 및 기타 여러 분야에서 AI 개발 프로세스를 간소화할 수 있는 MLOps용 소프트웨어 및 하드웨어 패키지인 DNN Training Appliance를 제공합니다.자료:랙 유닛(U)이란 무엇입니까?MLOps란 무엇인가요?     지능형 교통 시스템 통신: IIoT/V2X 기기의 네트워크 구축 운송 부문에서 AI가 수행하는 또 다른 중요한 역할은 스마트 교통 네트워크를 완성하는 데 도움이 되는 IIoT 및 V2X 장치를 강화하는 것입니다. 전신주, 신호등, 버스 정류장 등 도시와 도로의 다양한 요소는 모두 끊임없이 확장되는 AI 인프라의 일부가 될 수 있습니다.     이 시나리오에서는 다목적 엣지 컴퓨팅 플랫폼이나 강력한 임베디드 시스템이 인공 지능을 배포하는 가장 좋은 방법입니다. GIGABYTE의  AI 모바일 엣지 컴퓨팅 플랫폼은  대부분의 도로변 설치에 권장되는 솔루션입니다. 손쉬운 확장성을 통해 더 많은 가속기를 추가할 수 있으며, 풍부한 I/O 포트 제공으로 거의 모든 환경에서 사용하도록 조정할 수 있습니다. AI는 운전자와 보행자 모두에게 최신 교통 정보를 제공할 수 있으며, 관리자가 거시적 수준에서 조정할 수 있도록 제어 센터에 보고할 수도 있습니다.     GIGABYTE는 또한   이 분야의 고객을 위해 산업용 마더보드와 임베디드 IoT 솔루션을 제공합니다. 이 제품의 주목할만한 특징으로는 광범위한 작동 온도, 낮은 전력 소비 및 뛰어난 연결성이 있습니다. Blaize를 사용한 GIGABYTE의 솔루션은  자동차 및 운송 산업 전반에 걸쳐 인공 지능이 확산될 수 있도록 엣지에서 추론 가속을 제공하기 때문에 처리 속도도 중요하지 않습니다  .리소스:IIoT란 무엇입니까?V2X란 무엇입니까?     지능형 교통 시스템: 요약 자율주행차 외에도 AI는 교통 관련 인프라에 주입되어 우리가 이동하는 방식을 관리하고 목적지에 안전하고 편안하게 도달할 수 있도록 지원하는 지능형 교통 시스템을 구축할 수도 있습니다.번호판 인식은 AI 기반 교통 생태계에서 중요한 역할을 합니다. 컴퓨터 비전은 고속도로와 주차장에서 차량을 식별하는 데 사용됩니다. 이는 추론 집약적인 작업이므로 GIGABYTE의 G293-Z43과 같은 강력한 AI 추론 서버가 세상을 변화시킬 수 있습니다. AI를 재교육하고 모델을 업데이트하기 위해 추론 단계의 데이터를 사용하는 관행은 자동차 및 운송 산업의 AI 개발에 적극 권장되는 MLOps용 토털 솔루션인 GIGABYTE의 DNN 교육 어플라이언스를 사용하여 간소화될 수 있습니다.IIoT 및 V2X 네트워크의 실현은 차량이 항상 주변 환경과 연결되어 안전성과 편의성을 크게 향상시키는 데 도움이 됩니다. 가로등부터 디지털 간판까지 다양한 유형의 길가 설치는 교통 업데이트, 차량 호출과 같은 서비스를 제공할 수 있는 엣지 컴퓨팅 시스템의 플랫폼이 될 수 있습니다. GIGABYTE의 AI 모바일 엣지 컴퓨팅 플랫폼, 산업용 마더보드 및 임베디드 IoT 솔루션은 모두 인공 지능 애플리케이션의 포화도를 높이는 데 사용될 수 있으며 이는 이동 중인 모든 여행자에게 유용한 지원을 제공할 것입니다.     왜 기가바이트인가? 자동차 및 운송 부문을 휩쓸고 있는 AI 혁명에 참여하고 싶다면 가장 진보된 AI 발명품을 마음대로 사용할 수 있는 동시에 새로운 방법이 어떻게 길을 열어줄 수 있는지에 대한 지식을 공유할 수 있는 솔루션 제공업체가 필요합니다. 무한한 기회. 컴퓨터 하드웨어의 선두 공급업체이자 기술 산업의 유명한 선구자인 GIGABYTE Technology는 AI 여정에 필요한 파트너입니다. 우리는 인공 지능이 가져온 패러다임 전환에서 승리하는 데 도움이 될 이러한 속성을 제공합니다.● 포괄적인 제품군이전 섹션에서 설명했듯이 GIGABYTE는 교육, 추론 및 테스트를 위한 AI 서버와 스마트 교통 네트워크 배포를 위한 엣지 컴퓨팅 플랫폼을 포함하여 자율 차량 및 지능형 교통 시스템 개발의 다양한 단계를 위한 컴퓨팅 솔루션을 제공합니다. 업계의 다양한 측면을 충족하는 제공업체와 협력하면 고객을 위한 프로세스를 간소화할 수 있습니다. 이는 또한 이 수직 시장에 대한 GIGABYTE의 전문성을 입증하는 것이기도 합니다.● 최첨단 컴퓨팅 능력GIGABYTE는 x86 CPU용 AMD 및 Intel, ARM CPU용 Ampere, GPU용 AMD, NVIDIA 등을 포함하여 슈퍼컴퓨팅 분야의 저명한 칩 공급업체와 긴밀히 협력하여 당사의 컴퓨팅 플랫폼이 가장 진보된 처리 능력을 활용할 수 있도록 보장합니다. 광범위하고 다재다능한 공급업체는 고객이 광범위한 최적 선택 중에서 개별 요구에 가장 적합한 처리 장치를 선택할 수 있도록 보장합니다.● 독특하고 독점적인 제품 디자인GIGABYTE의 독점 섀시 설계 및 열 관리 기능은 엣지 컴퓨팅 애플리케이션에 필수적인 최고의 컴퓨팅 밀도와 최소한의 설치 공간을 제공합니다. 추가 보너스로, 당사 솔루션의 향상된 전력 효율성은 장기간 배포에 적극 권장되는 동시에 지속 가능성에도 도움이 됩니다.● 부가 가치 서비스 보완다른 회사에서는 서버 관리 소프트웨어 비용을 청구할 수도 있지만 GIGABYTE는 그렇지 않습니다. 모든 GIGABYTE 서버에는 추가 비용 없이 GIGABYTE 관리 콘솔이 함께 제공됩니다. 이 사용자 친화적인 도구를 사용하면 IT 관리자가 웹 기반 브라우저를 통해 원격으로 서버를 최적화하고 제어하여 성능을 극대화하고 고가용성을 보장할 수 있습니다. 독점 다중 서버 원격 관리 소프트웨어 플랫폼인 GIGABYTE 서버 관리(GSM)는 공식 GIGABYTE 웹사이트에서 무료로 다운로드할 수도 있습니다.● 수십 년간 입증된 실적GIGABYTE는 1986년 창립 이래 첨단 기술로 세상을 더 나은 곳으로 만들기 위해 노력해 왔습니다. 서버 사업에 대한 참여는 2000년부터 시작되었습니다. 2023년에는 서버 사업부를 분사해 기가컴퓨팅테크놀로지(Giga Computing Technology)라는 전액 출자 자회사를 설립했다. 생태계에 대한 수십 년간의 투자는 GIGABYTE 서버가 최신 AI 솔루션과 완벽하게 호환되며 NVIDIA, Linux, Red Hat 등과 같은 업계 리더의 인증을 자랑한다는 것을 의미합니다.● 믿을 수 있는 서비스 및 지원 GIGABYTE는 광범위한 제품에 대해 안정적인 서비스와 지원을 제공합니다. 온라인 eSupport 시스템을 사용하여 전문 서비스 팀에 연락할 수 있으며, FAQ를 통해 현장에서 문제를 해결하는 데 도움을 받을 수 있습니다.     요약 우리는 일하고, 쉬고, 이동하는 방식을 재정의할 인공 지능 중심 혁신의 지속적인 여정에서 교차로에 서 있습니다. 자율주행차와 지능형 교통 시스템 분야에서 AI는 우리가 타고 다니는 무인자동차와 이를 지원하는 스마트 교통 네트워크를 시작으로 이미 미래에 대한 우리의 비전을 현실로 만들고 있습니다.기본적으로 자율주행차는 AI 훈련과 추론이라는 두 단계를 통해 개발됩니다. 안전성을 더욱 강화하기 위해 컴퓨터 모델을 사용한 추가 테스트 단계를 수행할 수 있습니다. GIGABYTE 기술은 서버 부문에서 수십 년의 경험을 바탕으로 AMD, Ampere, Intel 및 NVIDIA와 같은 칩 공급업체의 최신 프로세서 및 가속기로 구동되는 인증된 AI 플랫폼을 제공합니다. 이 칩은 GIGABYTE의 독점 서버 설계와 통합되어 고객에게 차량용 AI 개발을 위한 최고의 도구를 제공합니다.AI는 또한 도로에서의 거버넌스 및 커뮤니케이션 책임을 맡을 수도 있습니다. 자동차 번호판 인식은 첨단 AI의 한 형태인 컴퓨터 비전으로 가능해진다. 길가 설치는 상호 연결되어 여행자에게 최신 정보를 전달하는 IIoT 및 V2X 장치의 네트워크를 구축할 수 있습니다. GIGABYTE는 AI 서버 외에도 인프라의 모든 부분에 AI를 부여할 수 있는 엣지 컴퓨팅 플랫폼과 임베디드 컴퓨터(IPC)도 제공합니다.AI의 힘은 자동차와 운송 산업에서 전속력으로 발전하고 있습니다. 이러한 흥미진진한 추세를 활용하는 데 도움을 줄 수 있는 IT 솔루션 파트너를 찾고 있다면 GIGABYTE Technology에 연락하여 우리가 귀하를 위해 무엇을 할 수 있는지 알아보는 것이 좋습니다.

상세보기

[GIGABYTE] 서버용 냉각 솔루션을 선택하는 방법은 무엇입니까? GIGABYTE의 기술 가이드

2023.07.19

[GIGABYTE] 서버용 냉각 솔루션을 선택하는 방법은 무엇입니까? GIGABYTE의 기술 가이드

CPU와 GPU가 계속해서 발전함에 따라 더 많은 전력을 소비하고 더 많은 열을 발생시킵니다. 서버를 구매할 때 온도 제어를 염두에 두는 것이 중요합니다. 우수한 냉각 솔루션은 에너지 비용을 높이거나 지속적인 유지 관리를 요구하지 않고도 원활하게 작동하도록 합니다. 고성능 서버의 업계 선두주자인 GIGABYTE Technology는 적합한 냉각 솔루션을 선택하는 데 도움이 되는 이 기술 가이드를 제공합니다. 공기, 액체, 침지의 세 가지 인기 있는 옵션을 분석하고 GIGABYTE가 무엇을 할 수 있는지 시연합니다.       1.       공기 냉각 공기는 열을 전달하는 주요 매체이므로 공기 기반 시스템의 경험 법칙은 공기 흐름을 개선하는 것입니다. 이는 전체 데이터 센터 또는 단일 서버에 적용할 수 있습니다. 용어집:《데이터 센터란? 》《서버란? 》 데이터 센터에서 기류는 열을 효율적으로 분산시키도록 설계된 특정 경로를 따릅니다. 먼저 시원한 공기가 바닥 통풍구를 통해 데이터 센터의 "냉기 통로"로 펌핑됩니다. 그런 다음 시원한 공기가 서버 랙을 통해 전달되어 "열기 통로"로 열을 전달합니다. 마지막으로 가열된 공기는 천장 환기구로 유입되고 컴퓨터실 공기 조절 장치(CRAC)에 의해 냉각되어 주기가 갱신됩니다. 서버 자체의 공기 흐름을 원활하게 하는 것도 중요합니다. 차가운 공기는 열 에너지를 분산시키기 위해 모든 주요 구성 요소를 통과해야 합니다. GIGABYTE는 공기 중 오염 물질의 유입을 방지하면서 공기 흐름을 개선하기 위한 다양한 혁신적인 하드웨어 설계 및 프로그래밍을 제공하여 서버를 식히기 쉽습니다. 공냉식 데이터 센터에서 열이 어떻게 소산되는지 보여주는 측면 다이어그램. 서버는 또한 공기 흐름을 용이하게 하도록 설계되어야 합니다. 장비 고장을 일으킬 수 있는 공기 중 오염 물질에 대해 더 큰 보호를 제공하도록 사용자 정의할 수 있습니다.    ● 하드웨어: 공기 흐름 친화적인 디자인 GIGABYTE의 모든 공랭식 서버는 독점적인 공기 흐름 친화적인 하드웨어 설계와 함께 제공됩니다. 이는 섀시의 전체 기류 방향이 시뮬레이션 소프트웨어로 평가된 다음 환기를 최적화하도록 미세 조정되었음을 의미합니다. 강력한 팬과 고성능 방열판을 설치하여 차가운 공기와 주요 부품 표면의 접촉을 극대화하여 방열 효과를 높였습니다. 공기 흐름을 더욱 개선하기 위해 방열판에 특수 공기 덕트가 부착되어 있습니다. 구성 요소는 내열성 재료로 만들어져 기계의 나머지 부분에 열이 전달되는 것을 방지하므로 서버가 과중한 작업을 처리할 때에도 열을 이길 수 있습니다. GIGABYTE의 공랭식 서버는 과중한 압력 테스트 작업 부하에서도 놀라운 성능을 발휘합니다. 섀시 디자인이 환기에 최적화되어 있기 때문입니다. 강력한 팬과 방열판이 주요 위치에 설치되었습니다. 구성 요소는 내열성 재료로 만들어졌습니다.   ● 프로그래밍: 자동 팬 속도 제어하드웨어 디자인 외에도 프로그래밍은 똑같이 정교합니다. GIGABYTE 서버는 자동 팬 속도 제어 기능이 표준으로 제공됩니다. 센서는 섀시에 배치되어 CPU, GPU, 메모리 및 하드 드라이브의 온도를 모니터링합니다. 베이스보드 관리 컨트롤러(BMC)가 특정 중요 위치에서 변경 사항을 감지하면 해당 팬의 속도가 자동으로 조정됩니다. 일부 모델에서는 특정 요구 사항을 수용하기 위해 팬 속도 프로필을 생성하거나 편집할 수 있으므로 사용자는 온도 제어와 전력 효율성 간에 최적의 균형을 이룰 수 있습니다.  용어 사전: 《CPU란? 》 《GPU란? 》 ● 오염 물질로부터 보호하기 위한 적응형 사용자 정의기본적으로 공랭식 서버는 습기 및 먼지와 같은 요소로 인한 손상에 취약합니다. 최신 데이터 센터는 공기 청정기를 설치하고 엄격한 청소 일정을 준수할 수 있지만 공기 중 오염 물질이 들어갈 위험은 항상 존재합니다.업계 리더로서 GIGABYTE는 까다로운 환경에 제품을 적용할 수 있는 노하우를 보유하고 있습니다. 예를 들어, GIGABYTE는 주요 물류 회사의 스마트 유통 센터를 위한 서버 솔루션을 제공했습니다. 인바운드 봉투 및 패키지의 지속적인 흐름으로 인해 서버를 깨끗하게 유지하기가 어려웠습니다. 환경 연구를 통해 종이와 판지의 미세한 섬유가 가장 큰 위협이 된다는 사실을 발견했습니다. GIGABYTE는 기계 설계를 맞춤화하여 IP5X의 침투 보호 등급을 달성하여 장치가 먼지에 강하고 공기 흐름에 도움이 되도록 했습니다. 이것은 팬 위에 더스트 스크린을 추가하고, 외부 버튼 위에 더스트 커버를 추가하고, 기타 독창적인 사용자 정의를 통해 이루어졌습니다.더 알아보기:《성공 사례: 북미 물류 리더를 위한 GIGABYTE의 맞춤형 솔루션》     2. 액체 냉각 직접 액체 냉각(DLC) 또는 직접 칩(D2C) 액체 냉각으로도 알려진 액체 냉각은 열을 분산시키기 위해 냉각제로 채워진 밀봉된 튜브(냉각 루프라고 함)를 사용합니다. 열 에너지는 냉각판을 통해 부품에서 냉각수로 전달됩니다. 그런 다음 열 교환기가 냉각수에서 열을 제거하여 서버로 다시 순환하고 주기를 반복할 수 있도록 합니다. 수냉식 서버는 냉각수로 채워진 밀봉된 냉각 루프를 사용하여 열을 발산합니다. 열 에너지는 냉각판을 통해 부품에서 냉각수로 전달됩니다. 그런 다음 열 교환기가 냉각수에서 열을 제거하여 주기를 반복합니다.   액체 기반 시스템은 열을 분산시키는 데 더 효과적일 뿐만 아니라 방열판이나 팬과 같은 공기 기반 냉각 구성 요소가 필요하지 않습니다. 여분의 공간은 더 많은 CPU 또는 GPU를 추가하는 데 사용할 수 있습니다. 이 때문에 고밀도 서버와 고성능 컴퓨팅(HPC) 솔루션은 하이브리드 "액체 대 공기" 시스템을 통해 열을 방출하든 순수한 "액체-액체" 열을 통해 열을 방출하든 어떤 형태의 액체 냉각을 사용하는 경우가 많습니다. 교환기.용어집:《액체 냉각이란 무엇입니까? 》《HPC란? 》● 액체 대 공기 냉각이 하이브리드 시스템은 인프라를 완전히 정비하지 않고 액체 냉각에 발을 담그고자 하는 공냉식 데이터 센터에 이상적입니다. 수냉식 서버는 표준 서버 랙에 설치됩니다. 냉각 루프는 동일한 랙에 장착된 열 교환기에 연결됩니다. 열은 공랭식 서버가 열을 방출하는 방식과 유사하게 데이터 센터의 "열기 통로"로 방출됩니다. 따라서 동일한 시설에서 공냉식 서버와 수냉식 서버를 혼합하여 사용할 수 있습니다. 열교환기가 일부 랙 공간을 차지하지만 수냉식 서버는 더 많은 프로세서를 수용할 수 있으므로 전체 컴퓨팅 성능이 향상됩니다. 액체 대 공기 냉각 솔루션을 사용하면 열 교환기가 액체 냉각 서버와 동일한 랙에 장착되어 냉각수에서 데이터 센터의 "열기 통로"로 열을 전달합니다. 이를 통해 프로세서를 서로 밀접하게 결합할 수 있으므로 컴퓨팅 성능이 향상됩니다. 또한 공냉식 및 수냉식 서버가 동일한 시설에 공존할 수 있습니다.   ● 액체 대 액체 냉각액체 대 액체 시스템은 액체 대 공기 시스템보다 더 많은 열을 제거할 수 있지만 주의 사항이 있습니다. 기존 액체 냉각 인프라가 있는 데이터 센터에서 사용해야 합니다. 랙에 장착된 열 교환기는 "뜨거운 통로"로 열을 방출하는 대신 시설의 액체 기반 냉각 루프로 에너지를 전달하며, 이는 표준 CRAC보다 열 분산에 더 효율적입니다. 이로 인해 서버 밀도가 기하급수적으로 증가하여 컴퓨팅 성능이 더욱 향상될 수 있습니다. 액체 대 액체 냉각 시스템은 냉각수에서 데이터 센터의 액체 공급 장치로 열을 전달하여 서버를 더욱 조밀하게 함께 포장할 수 있습니다.   GIGABYTE는 선도적인 냉각 솔루션 제공업체인 CoolIT Systems와 협력하여 액체 대 공기 및 액체 대 액체 구성 모두를 위한 고밀도, 공장 설치, 드롭인 준비 액체 냉각 서버를 제공합니다. 모듈식 랙 기반 냉각 솔루션을 통해 랙 밀도, 구성 요소 성능 및 전력 효율성을 크게 높일 수 있습니다. 패시브 냉각판 루프를 사용하여 별도의 펌핑 메커니즘을 제거하면 시스템 고장률이 최소화됩니다. 랙 매니폴드는 설치가 쉽고 랙의 각 측면에서 단일 PDU 공간만 차지합니다. 신뢰할 수 있는 스테인리스 스틸 디자인과 모든 서버 노드의 빠른 유지 관리를 위한 100% 드라이 브레이크 퀵 디스커넥트가 특징입니다. 마지막으로 CDU는 공급 온도와 서버에 대한 냉각수 흐름을 관리하는 지능형 제어 시스템을 제공합니다. 자세히 알아보기:《CoolIT의 액체 냉각 솔루션 알아보기》《공기가 방해가 되지 않을 때는 액체 냉각 서버를 사용해 보십시오》액체 냉각 서버는 향상된 컴퓨팅 성능과 안정성을 제공하며 공간이 제한된 곳에 설치할 수 있습니다. 이로 인해 다양한 분야에서 인기가 있습니다. 예를 들어 에지 데이터 센터는 수냉식 고밀도 서버를 사용하여 더 작은 공간에 더 많은 컴퓨팅 성능을 압축할 수 있습니다. 컴퓨터 프로그램을 사용하여 고주파 거래(HFT)에 참여하는 금융 부문도 빠르고 안정적인 수냉식 서버의 이점을 누릴 수 있습니다.《용어:  에지 컴퓨팅이란? 》액체 냉각이 물결을 일으키고 있는 또 다른 분야는 "그린 컴퓨팅"입니다. GIGABYTE의 고객 중 하나는 독일의 항공우주, 에너지 및 운송 연구를 위한 국가 센터인 독일 항공우주 센터(Deutsches Zentrum für Luft- und Raumfahrt, DLR로 약칭)입니다. 문자 그대로의 로켓 과학자를 포함한 DLR 팀은 우주 탐사 및 기타 연구 프로그램을 지원하기 위해 친환경 데이터 센터 구축에 착수했습니다. 그들은 특히 주변 온도가 40°C이고 공조 장비가 없는 데이터 센터에서 작동할 수 있는 서버를 요청했습니다. GIGABYTE는 H261-Z60의 수냉식 버전을 권장했습니다.  고밀도 서버. 최적화된 전원 공급 장치와 결합된 이 솔루션은 경쟁 제품에 비해 전력 수요를 15%까지 줄일 수 있습니다. 수냉식 서버에 더 많은 프로세서를 수용할 수 있기 때문에 경쟁 제품보다 최대 2배의 최대 컴퓨팅 성능을 제공하면서 설치 공간을 50% 줄였습니다. 수냉식 서버 솔루션은 제한된 공간에서 환경 친화적인 고속 컴퓨팅을 구현하려는 DLR의 목표를 달성했습니다.자세히 알아보기:《성공 사례:  GIGABYTE의 수냉식 서버로 그린 데이터 센터를 구축한 DLR》 《GIGABYTE의 고밀도 서버에 대한 추가 정보  》《GIGABYTE의  GPU 서버 에 대한 추가 정보 》《GIGABYTE의  랙 서버 에 대한 추가 정보》     3. 침수 냉각 침수 냉각은 액체 냉각의 정점입니다. 비전도성 유체 욕조에 서버를 직접 담그면 팬이나 냉각판과 같은 냉각 메커니즘 없이도 열을 제거할 수 있습니다. 열 에너지는 다음 두 가지 방법 중 하나로 액체 밖으로 전달됩니다. 또는 "2단계" 침수 냉각의 경우와 같이 기화 및 응축 주기를 통해.더 알아보기:《용어:  침수 냉각이란 무엇입니까? 》《GIGABYTE의 침수 냉각 솔루션에 대해 알아보십시오》 단상 변형에서는 CPU, GPU 및 기타 구성 요소에서 방출되는 열이 방열판을 통해 액체로 직접 전달됩니다. 따뜻한 액체는 열 교환기(이 경우 CDU(냉각수 분배 장치))로 연결되어 열이 외부 공기 또는 물 루프로 발산됨에 따라 두 번째 전달이 발생합니다. 그런 다음 냉각수는 침수 탱크로 다시 펌핑되어 사이클을 계속합니다. 이름에서 알 수 있듯이 침지 탱크의 유체는 상태가 변하지 않으므로 증발이나 응축이 발생하지 않습니다. 단상 침지 냉각에서 따뜻한 냉각수는 다양한 방법을 통해 냉각수를 냉각시키는 외부 CDU로 펌핑됩니다. 그런 다음 냉각수는 탱크로 다시 펌핑되어 사이클을 계속합니다. 이름에서 알 수 있듯이 냉각수는 프로세스 전체에서 상태를 변경하지 않습니다.   GIGABYTE는 EIA 또는 OCP 표준 서버용 GIGABYTE 자체 침수 탱크와 리프트, 건조 랙 및 냉각수와 같은 주변 장치를 포함하여 단상 침수 냉각을 위한 완벽한 제품 라인을 제공합니다. GIGABYTE의 침수 냉각 서버는 Asperitas, GRC 및 Submer에서 제공하는 솔루션과도 호환됩니다. 일본 최고의 통신 제공업체인 KDDI는 혁신적인 친환경 컴퓨팅 에지 데이터 센터에서 GIGABYTE 서버와 함께 단상 침수 냉각을 사용합니다.자세히 알아보기:《GIGABYTE의 단상 침수 냉각 솔루션 알아보기》《성공 사례:  일본 통신 선두업체 KDDI, GIGABYTE와 함께 침수 냉각 소형 데이터 센터 발명》GIGABYTE는 또한 끓는점이 매우 낮은 비전도성 및 무독성 유체 욕조로 부분적으로 채워진 밀폐된 탱크에 서버를 담그는 2단계 침수 냉각 솔루션을 제공합니다. 칩의 열로 인해 수조가 자연적으로 저온 기화되어 액체 밖으로 열이 전달됩니다. 증기는 탱크 상단으로 올라가고 응축기 코일과 같은 열 교환기에 의해 냉각되어 액체 형태로 되돌아갑니다. 유체는 다시 수조로 흘러 재사용됩니다. 2단계 침수 냉각은 끓는점이 매우 낮은 비전도성 액체 욕조에 서버를 직접 배치합니다. 구성 요소의 열로 인해 유체가 기화되고 열이 분산됩니다. 그런 다음 증기는 코일 응축기에 의해 냉각되고 액체 형태로 되돌아가 재사용을 위해 수조로 다시 흐릅니다.   2단계 침수 냉각에는 많은 장점이 있습니다. 하나는 추가 에너지 소비 없이 탱크 내부 순환이 자연스럽게 이루어지므로 전력 사용 효율성(PUE)이 향상됩니다. 일부 추산에 따르면 공기 냉각을 2단계 침수 냉각으로 교체하면 에너지를 최대 90%까지 절약할 수 있습니다. 또한 펌프 및 제트와 같은 부품을 제거하면 유지보수가 줄어들고 장비 고장 가능성이 낮아집니다. 운영 비용은 낮추면서 시스템 안정성은 향상됩니다. 성공 사례에는 PUE를 1.08 미만으로 낮추고 데이터 센터의 총 전력 소비를 최대 30%까지 줄일 수 있는 "그린 HPC 데이터 센터"를 구축하기 위해 GIGABYTE의 2단계 침수 냉각 솔루션을 선택한 세계 최고의 반도체 대기업이 포함됩니다. 더 알아보기:《용어:  PUE란? 》《Success Story:  Semiconductor Giant, GIGABYTE의 Two-Phase Immersion Cooling Solution 선택》단상이든 2상 침수 냉각이든 관계없이 GIGABYTE 서버는 모듈식으로 설계되어 공랭식 서버를 침수용으로 수정할 수 있습니다. 냉각. 이러한 솔루션에 사용되는 서버는 브래킷으로 설치되어 수직 설치 및 제거를 지원하여 관리가 용이합니다. 침수 탱크는 또한 독립형이므로 서비스가 덜 필요합니다. 여기에는 이상적인 작동 온도를 유지하는 센서와 더 큰 작동 안정성을 제공하는 중복 CDU가 장착되어 있습니다.     요약: 적합한 냉각 솔루션을 선택하는 데 도움이 되는 3단계 서버의 온도를 제어하는 세 가지 방법에 대해 학습한 후 문제의 핵심에 도달했습니다. 자신에게 적합한 냉각 솔루션을 선택하는 방법은 무엇입니까?문제의 사실은 두 고객이 똑같지 않다는 것입니다. 전문가 상담 및 맞춤형 솔루션에 대한 특정 요구 사항에 대해서는 영업 담당자에게 문의하는 것이 좋습니다.그러나 필요한 것이 무엇인지 더 명확하게 파악하기 위해 스스로에게 물어볼 수 있는 세 가지 간단한 질문이 있습니다. 이러한 질문은 보다 실현 가능한 옵션에 집중하는 데 도움이 될 뿐만 아니라 일반적으로 데이터 센터, 특히 백본 역할을 하는 냉각 시스템에 대한 장기 계획을 보다 쉽게 수립할 수 있도록 합니다.     1. 에너지 소비 및 방열 냉각 솔루션의 효율성은 열 발산의 킬로와트(kW) 단위로 측정됩니다. 대략적으로 말하면 표준 서버 랙을 비교 기준으로 사용하기 위해 공기 냉각은 20kW의 열 분산을 제공합니다. 액체 냉각은 60kW의 방열을 제공합니다. 침수 냉각은 200kW의 방열을 제공합니다.즉, 에너지 수요에 따라 가장 적합한 냉각 솔루션이 결정됩니다. 서버에서 어떤 프로세서를 사용할 것인지, 얼마나 많은 전력을 소비할 것인지에 대한 명확한 그림이 있어야 합니다. 일반적으로 HPC 또는 병렬 컴퓨팅에 사용되는 프로세서는 더 많은 에너지를 소비하고 더 많은 열을 방출합니다. 이것이 서버가 대부분의 시간 동안 수행하는 작업이라면 액체 냉각 또는 침수 냉각에 투자하는 것이 합리적입니다.《용어:  병렬 컴퓨팅이란 무엇입니까? 》     2. 공간 및 기타 리소스의 가용성 고려해야 할 또 다른 요소는 사용 가능한 공간의 양입니다. 공기 냉각은 좋은 공기 흐름에 의존하기 때문에 서버를 너무 꽉 조여서는 안 됩니다. 이러한 제한은 에지 컴퓨팅의 구현에 영향을 미칠 수 있으며, 이것이 액체 및 침수 냉각 방법이 인기를 얻고 있는 이유입니다.PUE는 액체 또는 침수 냉각을 채택하여 크게 개선될 수 있다고 명시되어 있습니다. 그러나 물 사용 효율(WUE)도 평가해야 합니다. 우수한 WUE와 안정적인 물 공급은 이러한 시스템으로 냉각되는 데이터 센터의 원활한 운영을 보장하는 데 도움이 될 수 있습니다.     3. 인프라 액체 대 액체 및 침수 냉각 솔루션은 시설의 액체 공급 및 냉각 루프와 함께 사용해야 합니다. 즉, 이러한 솔루션을 위해 데이터 센터를 구축해야 합니다. 이것은 보다 발전된 형태의 냉각을 채택하는 데 있어 가장 큰 장애물 중 하나입니다.공냉식 데이터 센터에 수냉식 서버를 배치하려는 경우 액체 대 공기 시스템을 사용하는 것이 좋습니다. 그러나 액체 냉각과 침수 냉각이 유행하고 있으며 성공적인 데이터 센터는 확장 가능해야 한다는 점을 명심하십시오. 사용자의 IT 요구와 함께 성장해야 하며 최신 기술 개선 사항을 채택해야 합니다. 액체 기반 인프라는 보다 발전된 냉각 방법을 지원할 수 있으며 적은 공간을 차지하면서 상당한 양의 컴퓨팅 성능을 자랑하는 서버를 수용할 수 있습니다. 이러한 특성을 갖춘 데이터 센터는 계속해서 증가하는 데이터의 바다를 따라잡기 위해 더 잘 준비될 것입니다. 《용어집:  확장성이란? 》궁극적으로 공기 냉각, 액체 냉각 또는 침수 냉각을 사용하든 GIGABYTE는 필요한 솔루션을 제공합니다.

상세보기

[AAEON] AAEON AI 기술로 스테이션 감시 시스템 발전

2023.07.12

[AAEON] AAEON AI 기술로 스테이션 감시 시스템 발전

전 세계 도시에서 교통 허브는 점점 더 바빠지고 있으며 많은 터미널은 이제 설계된 것보다 훨씬 더 많은 사람들을 처리하고 있습니다. 대형 역과 소형 역의 승객 수는 보안 직원이 적절하게 관리할 수 있는 수준을 훨씬 초과하는 경우가 많으며, 이로 인해 여러 가지 문제가 발생합니다. 당국은 티켓 없이 열차에 탑승하는 사람들을 막을 수 있어야 하며, 더 중요한 것은 의심스러운 행동을 하는 개인을 찾아내야 한다는 것입니다. 기차역은 매우 바쁘고 중요한 장소이기 때문에 정기적으로 보안 위협에 직면하고 있으며 직원은 비정상적인 행동이 발생하는 즉시 이를 인지해야 합니다. 기존의 보안 카메라 시스템은 작업자가 여러 카메라 피드를 보고 위험하거나 사기 행위를 감지하는 데 의존합니다. 승객 수가 증가함에 따라 점점 더 효과가 떨어지는 불완전한 솔루션입니다. 보다 완전한 답변을 만들기 위해 보안 팀은 AI 기술을 활용해야 합니다.     효과적인 AI 보안 시스템에는 다음이 필요합니다.   강력한 컴퓨팅 시스템 독립적으로 구성 가능한 여러 대의 IP 카메라 행동 분석 및 가상 울타리 기능을 갖춘 고급 AI 소프트웨어 사용자 친화적인 영상 관리 시스템     AAEON의 솔루션 AAEON은 다양한 강력한 NVR을 보유하고 있으며, 이 프로젝트를 위해 AAEON은 개별 LAN 칩과 5600세대 Intel® Core™ 프로세서가 있는 7개의 스마트 PoE 포트로 인해 VPC-<>S를 제공했습니다. AAEON은 또한 AI 감시 소프트웨어 회사 및 비디오 관리 소프트웨어 회사와 협력하여 하드웨어와 소프트웨어를 완전한 감시 솔루션으로 통합했습니다.     광범위한 비전 AAEON은 이 AI 애플리케이션에 최대 5600개의 네트워크 또는 클라우드 연결 IP 카메라를 사용할 것을 권장합니다. VPC-<>S의 스마트 PoE 기능으로 인해 이러한 각 카메라를 독립적으로 제어하고 재부팅할 수 있습니다. 엣지에서 운영 VPC-5600S에는 Intel® Movidius™ Myriad™ 기술을 사용하여 에지 컴퓨팅을 가능하게 하는 미니 PCIe 모듈인 AAEON의 AI Core X를 장착할 수 있습니다. 초소형 AI 프로세싱 카드는 시스템에 총 <>대의 카메라를 추가로 관리할 수 있습니다. 이 카메라의 피드는 에지에서 분석되기 때문에 네트워크 또는 클라우드에 대한 NVR의 연결이 일시적으로 끊어지더라도 사용자는 보안 통찰력과 경고를 받게 됩니다. 따라서 민감한 영역을 모니터링하는 데 탁월한 옵션이 될 것입니다. AI 분석 • 가상 울타리 – AI 소프트웨어를 사용하여 사용자는 지정된 영역을 통과하거나 가상 장벽을 넘는 모든 사람을 모니터링하는 가상 울타리를 설정할 수 있습니다. 입구/출구 전용 통로에서 소프트웨어는 누군가가 잘못된 방향으로 장벽을 넘을 경우에만 경고를 보냅니다. 보안 경고가 불필요하게 전송되지 않도록 소프트웨어는 제한된 방향을 감지하여 가상 울타리 근처를 걷는 개별 승객을 모니터링할 수 있습니다. 누군가 실수로 출구 전용 통로에 들어갔다가 빠르게 방향을 바꾸면 경고가 전송되지 않습니다. • 행동 분석 – AI 회사는 또한 위험한 행동의 징후를 감지하도록 프로그램을 훈련했으며 의심스러운 것을 발견하면 소프트웨어가 경고를 보냅니다. 그런 다음 작업자는 최선의 조치를 결정할 수 있습니다. 비디오 관리 비디오 피드와 보안 경고를 포함한 AI 분석 결과는 비디오 관리 소프트웨어로 전송되어 사용자 친화적인 GUI를 통해 작업자에게 전달됩니다.   영향 AAEON의 통합 솔루션은 보안 담당자에게 점점 더 혼잡해지는 공공 장소를 관리하는 데 필요한 도구를 제공합니다. 잠재적으로 사기 또는 위험한 행동을 더 빨리 발견하고 처리할 수 있으며, 경찰관이 실제로 필요한 곳에 배치될 수 있으며, 기차역은 승객에게 더 안전한 장소가 될 수 있습니다.   VPC-5600S 정보 VPC-5600S은(는) 개별 LAN 포트와 함께 최대 3개의 PoE 포트를 장착할 수 있는 시장을 선도하는 네트워크 비디오 레코더입니다. 또한 0개의 USB14.<> 포트와 <>개의 LAN 포트가 있어 최대 <>대의 고급 감시 카메라를 지원할 수 있습니다. 스마트 PoE 기능은 사용자의 유지 관리에도 도움이 됩니다. 결함이 있는 카메라 또는 센서를 원격으로 확인하고 재부팅할 수 있습니다. 주변 장치가 완전히 작동을 멈췄더라도 나머지 네트워크는 계속 원활하게 실행됩니다. 이 견고하고 팬이 없는 장치는 -40oC에서 85oC의 작동 온도 범위와 10V에서 36V의 DC 입력 범위를 보장합니다. 2개의 5.<>인치 HDD/SSD 베이, mSATA 슬롯 및 장착하기 쉬운 확장 모듈을 갖추고 있어 사용자가 디스플레이 또는 COM 포트를 빠르고 저렴하게 추가할 수 있습니다.

상세보기

[AAEON] 하루 만에 자율 모바일 로봇 구축

2023.07.12

[AAEON] 하루 만에 자율 모바일 로봇 구축

자율 이동 로봇(AMR)은 공장 자동화에서 가장 높은 성장 기회를 제공합니다.  이 기계 중 4만 대 이상이 2025년까지 창고에서 작동할 것으로 예상됩니다. 그리고 그것은 이 영리한 봇을 위한 하나의 응용 프로그램일 뿐입니다. AMR은 또한 청소 업무를 수행하고, 특정 품목을 찾아 특정 장소로 운송하고, 거친 지형을 탐험하고, 인간과 상호 작용할 수 있습니다. 그러나 로봇 혁명은 인간의 도움 없이는 일어나지 않을 것입니다. AMR을 구축하려면 AI, 머신 비전 및 로봇 공학의 복잡한 분야에 대한 전문 지식이 필요합니다. 이러한 전문 지식을 개발하는 데는 많은 시간과 비용을 투자해야 할 수도 있고, 엔지니어가 기성 기술을 사용하여 지름길을 택할 수도 있습니다. 하루 만에 만나는 머신 비전 한 가지 좋은 예가 UP의 RoboMaker Pro Kit입니다. 그림 1에서 볼 수 있듯이 이 제품은 다음과 함께 바로 사용할 수 있는 AMR 섀시를 제공합니다. 435D 비전을 위한 Intel® RealSense™ D3 카메라 비전 프로세싱을 위한 Intel® Movidius™ Myriad™ X VPU ROS2 및 Ubuntu 16.04 운영 체제 AWS RoboMaker 및 인텔® OpenVINO™ 도구 키트 지원 배전, 서보 모터, 배터리 및 Wi-Fi   "개발자는 키트를 사용하여 즉시 엔드 투 엔드 솔루션 데모 또는 PoC를 구축할 수 있습니다." —@danielecleri, @aaeon "키트를 사용하여 개발자는 즉시 엔드 투 엔드 솔루션 데모 또는 개념 증명(PoC)을 구축할 수 있습니다"라고 회사의 AI 및 IoT 소프트웨어 설계자인 Daniele Cleri는 말했습니다. Cleri에 따르면 개발자는 하루 만에 머신 비전 애플리케이션을 만들고 며칠 만에 작동하는 데모를 제작할 수 있습니다. 그림 1. UP RoboMaker Pro 키트(왼쪽)를 사용하여 프로덕션으로 빠르게 확장할 수 있는 개념 증명(가운데)을 구축할 수 있습니다(오른쪽). (출처: UP) 이 빠른 개발 주기의 핵심은 키트에서 AWS RoboMaker를 사용한다는 것입니다. Cleri는 AMR의 핵심 요구 사항은 3D로 보고 자율적인 결정을 내릴 수 있는 능력이라고 지적했습니다. 그러나 올바른 도구가 없으면 이러한 알고리즘을 테스트하고 개발하는 프로세스가 매우 느려질 수 있습니다. AWS RoboMaker는 물리적 테스트를 대체하는 시뮬레이션 환경을 제공하여 이 문제를 해결합니다. 장애물 회피 및 영역 매핑과 같은 작업을 RoboMaker에서 시뮬레이션하여 설계 아이디어를 빠르게 반복할 수 있습니다. 최적화되면 알고리즘을 로봇으로 이식할 수 있습니다. 이 직접적인 시뮬레이션-현실 워크플로는 RoboMaker 알고리즘을 키트에서 사용할 수 있는 코드로 변환하는 Intel OpenVINO Toolkit에 의해 활성화됩니다. 인텔®과 AWS는 기술 간의 원활한 통합을 보장하기 위해 협력했습니다. AWS 플랫폼의 또 다른 이점은 AWS IoT Greengrass를 사용하여 플릿 관리를 수행할 수 있다는 것입니다. 이는 수백 또는 수천 대의 로봇에 대한 제어 및 동기화를 단순화하고 수명 주기 관리에 도움이 됩니다. 개발을 더욱 간소화하기 위해 이 키트는 다양한 샘플 애플리케이션과 함께 제공됩니다. 여기에는 비전, 추론, 탐색 및 컴퓨팅이 포함됩니다(그림 2). 그림 2. 이 키트는 다양한 응용 프로그램과 함께 제공됩니다. (출처: UP) 개발 중인 다양한 사용 사례 창고 로봇을 개발하는 것 외에도 AMR은 OpenVINO를 사용하여 보안과 같은 다른 작업을 수행하도록 훈련할 수 있습니다. "추론 응용 프로그램은 로봇이 정의 된 공간을 돌아 다니며 의심스러운 활동을 나타낼 수있는 패턴을 관찰하도록 가르치는 데 사용할 수 있습니다."라고 Cleri는 말합니다. 이러한 동작에 대한 대응을 자동화하거나 보안 담당자에게 전달하여 검토하고 조치를 취할 수 있습니다. 현재 UP Squared RoboMaker Kit 및 Cogniteam 소프트웨어를 중심으로 한 개발의 대부분은 Ben-Gurion University 및 Bar-Ilan University를 포함한 대학과 Mitsubishi Research Lab과 같은 기관에서 이루어지고 있습니다. "우리는 인텔® 및 기타 조직과 긴밀한 협력을 할 수 있어 다행입니다"라고 Cleri는 말했습니다.

상세보기

[AAEON] 지능형 가로등

2023.07.12

[AAEON] 지능형 가로등

    밝은 가로등은 도로 안전을 개선하고 범죄를 줄이는 데 도움이 되며 기업과 지역 사회 모두에게 도시를 더욱 활기차고 매력적인 장소로 만듭니다. 그러나 전통적인 가로등은 공공 재정을 크게 낭비하고 기후 변화의 주요 원인입니다. 비용을 절감하고 에너지 효율성에 대한 증가하는 대중의 요구를 충족하기 위해 전 세계 도시에서는 오래된 가로등을 저전력 LED로 교체하는 과정에 있습니다. 그러나 이 업그레이드가 21세기 조명 시스템의 끝이 될 수는 없습니다. 현대 도시가 잠들지 않더라도 그 안에 사는 사람들은 잠을 자고 밤새도록 같은 강도로 빛날 필요가 없습니다. 미래의 스마트 시티에서는 공공 조명이 언제, 얼마나 밝게 빛나는지 관리할 수 있는 방법이 필요합니다. 센서 및 지능형 관리 시스템 네트워크를 통해 AAEON 지능형 조명 제어는 실시간 요인에 대응하여 시스템 전체, 지정된 그룹 또는 개별 수준에서 조명을 어둡게 하거나 켜고 끌 수 있습니다.이 기술을 통해 우리는 바로 지금 바로 미래의 스마트 시티를 형성할 수 있습니다.     엣지 컴퓨팅 인텔 비전 제품으로 구동되는 AAEON Atlas*는 스마트 조명, 환경 모니터링 및 비디오 센서의 데이터 스트림을 통합하는 강력한 에지 컴퓨팅 노드입니다. Atlas는 엣지에서 작동하여 도시 관리자가 수많은 새로운 애플리케이션을 지원하는 연결된 데이터 허브를 만들 수 있도록 합니다. 예를 들어, Atlas 에지 노드가 카메라, 네트워크 비디오 레코더(NVR) 및 관리 시스템과 함께 배포되면 도시 전역의 주차 애플리케이션에 전력을 공급할 수 있습니다. 자동차 운전자는 거스름돈을 구하거나 미터기를 지불할 필요 없이 도시 거리에 주차할 수 있으며, 가로등의 인근 스마트 카메라는 컴퓨터 비전을 사용하여 번호판과 같은 이미지를 캡처 및 분류하고 자동차 부서 데이터베이스에 연결된 게이트웨이 및 클라우드 기반 관리 시스템을 통해 정확한 주차 시간에 대해 소유자에게 직접 요금을 청구할 수 있습니다. 제품 개요 세부 정보 다운로드 연결된 가로등 핵심 경쟁력 (1) 고급 컨트롤 비효율적인 타이머는 유연한 개별 제어로 대체할 수 있습니다. (2) 에너지 효율 불필요한 조명을 어둡게 하고 결함이 있는 장치에서 전력을 다른 곳으로 전환하여 에너지 소비를 줄일 수 있습니다 (3) 유지보수 개선 실시간 오류 보고를 통해 유지 보수 작업 속도를 높일 수 있습니다. (4) 재정적으로 신중함 미리 준비된 LED 업그레이드의 일부로 컨트롤을 설치하는 것은 좋은 비즈니스 의미가 있습니다 (5) IoT 플랫폼 추가 센서 및 스마트 시티 인프라 애플리케이션(예: 스마트 주차, 스마트 폐기물 및 공기 센서)은 나중에 쉽게 추가할 수 있습니다 Edge-X, 중앙 관리 시스템(CMS) Edge-X는 현장의 규모와 시장 수요에 따라 세 가지 아키텍처, 단일 조명 제어 패널, 루프 모니터링 패널 및 루프 제어 패널을 개발한 새로운 클라우드 가로등 모니터링 및 관리 솔루션입니다. Edge-X는 동시에 100,000개 이상의 가로등을 관리합니다. 전력선 및 무선 네트워크 전송을 모두 지원하며 시중에서 판매되는 모든 램프 캡을 통합합니다. 호환성이 높고 확장 가능한 플랫폼입니다. Edge-X를 사용하면 클라우드 플랫폼을 통해 거리의 전체 정보를 볼 수 있으며 비정상적인 가로등이 즉시 반환되는 경우 정확한 진단 엔진 세트를 보유하여 관리자가 파견 수리 속도를 높이고 언제든지 가로등에 쉽게 액세스하여 통행인 만족도와 도로 안전을 향상시킬 수 있습니다.

상세보기

[AAEON] 번호판 인식: AI@Edge 솔루션을 통한 스마트 주차 운전

2023.07.12

[AAEON] 번호판 인식: AI@Edge 솔루션을 통한 스마트 주차 운전

소개 AI의 지속적인 개발 덕분에 엣지 컴퓨팅, 광범위한 애플리케이션을 위한 솔루션을 제공하기 위해 많은 새로운 AI 시스템이 개발되고 있습니다. AI Edge 사용에 많은 관심을 보인 응용 프로그램 중 하나는 차고 또는 밀폐된 주차장에서 스마트 주차 시스템을 사용하는 것입니다. 스마트 주차는 번호판 인식 기술을 활용하여 차량이 들어올 때 체크인하고 차량이 떠날 때 체크아웃하는 방식으로 작동합니다. 일반적으로 시스템은 차량이 주차된 시간도 결정하고 주차 요금을 자동으로 계산합니다. 스마트 주차 시스템은 원래 머신 비전 기술을 사용하여 개발되었습니다. 그러나 머신 비전 기반 시스템에는 몇 가지 제한 사항이 있습니다. 번호판을 인식하려면 자동차가 올바른 지점과 각도로 향해야 하므로 운전자에게 좌절감을 줄 수 있습니다. 머신 비전 시스템은 어두운 조명 조건이나 안개 또는 비와 같은 기상 조건에서 제대로 작동하지 않습니다. 머신 비전 시스템은 특수 또는 비표준 발행 번호판에도 문제가 있을 수 있습니다. 머신 비전 시스템의 한계를 극복하기 위해 한 회사는 주요 소매 체인을 위한 AI Edge 기반 솔루션을 개발했습니다. 그들은 시스템을 최대한으로 끌어올릴 수 있는 하드웨어 플랫폼을 제공하기 위해 AAEON으로 눈을 돌렸습니다.   도전 개발자는 AI Edge 스마트 주차 솔루션을 개발하는 데 몇 가지 문제에 직면했습니다. 시스템은 클라우드에 거의 의존하지 않고 엣지에서 작동해야 하며, 실외 임베디드 환경에서 작동할 수 있어야 하며, 여러 아메라 및 센서에 대한 지원도 제공해야 합니다.   엣지 시스템 고객에게 신속한 서비스를 제공하려면 AI 시스템이 엣지에서 작동할 수 있어야 합니다. 클라우드 기반 시스템에 의존하면 시스템이 중앙 서버와 통신하므로 서비스 속도가 느려질 수 있습니다. 주차장과 차고에는 네트워크 연결이 일관되지 않아 클라우드 기반 시스템을 방해하는 경우가 많습니다. 실외 조건 이 시스템은 고객이 있는 주차장이나 차고에 배치할 수 있어야 합니다. 콤팩트한 시스템은 유연성을 제공할 수 있지만 가장 중요한 것은 시스템이 다양한 조건에서 작동할 수 있어야 하며 먼지나 자동차 배기 가스의 영향을 받지 않아야 한다는 것입니다. I/O 지원 AI 애플리케이션은 자동차가 들어오고 나갈 때 번호판을 읽기 위해 여러 카메라 입력이 필요합니다. 주차 게이트 및 지불 키오스크와 같은 컨트롤러와의 추가 연결은 시스템의 유용성과 효율성을 높이는 데 도움이 됩니다.     용액 AAEON은 개발자와 긴밀히 협력하여 수상 경력에 빛나는 BOXER-8120AI AI@Edge 팬리스 임베디드 시스템이 최고의 솔루션이라고 결정했습니다.   NVIDIA Edge 솔루션 BOXER-8100AI AI@Edge 시스템 제품군은 모두 강력한 NVIDIA Jetson TX2를 탑재하고 있습니다. BOXER-8120AI는 헥사코어 SoC, NVIDIA Pascal 256 CUDA 코어 GPU, 8GB 메모리 및 32GB eMMC 스토리지를 통해 엣지에서 AI를 구동하는 데 필요한 성능을 제공합니다.   임베디드 디자인 두께가 30mm에 불과한 BOXER-8120AI는 필요한 곳 어디에나 잘 어울립니다. 팬이 없는 설계로 작동은 먼지나 배기가스의 영향을 받지 않습니다. BOXER-8120AI는 -20°C에서 50°C(-4°F에서 122°F)의 저온에서 작동하도록 설계되었습니다.   연결을 위한 설계 BOXER-8120AI에는 LAN 카메라에 완벽하게 연결할 수 있는 <>개의 기가비트 이더넷 포트가 있습니다. 또한 HDMI를 포함한 추가 I/O 포트가 있어 보안 직원에게 쇼핑객을 안전하게 보호하는 데 도움이 되는 또 다른 도구를 제공합니다.     영향 BOXER-8120AI를 통해 개발자는 고객의 스마트 주차장에 전력을 공급할 수 있는 AI@Edge 번호판 인식 솔루션을 제공할 수 있었습니다. BOXER-8120AI의 성능 덕분에 개발자의 AI 시스템은 머신 비전 기반 솔루션 이상의 기능을 제공할 수 있습니다. 이 시스템은 다양한 각도, 다양한 조명 조건, 안개, 비 또는 기타 악천후 조건에서 번호판을 인식하고 읽을 수 있습니다. 보다 지능적인 스마트 주차 솔루션을 갖춘 개발자의 고객은 머신 비전 기반 주차 시스템으로 인해 종종 발생하는 좌절감 없이 고객을 위해 더 쉽고 빠르게 주차할 수 있는 시스템을 갖게 되어 기뻤습니다. AI Edge 번호판 인식 및 수상 경력에 빛나는 BOXER-8120AI로 구동되는 스마트 주차는 쇼핑객과 매장 소유자의 경험을 개선하는 데 도움이 됩니다.       제품 수상 경력에 빛나는 BOXER-8120AI AI@Edge 임베디드 팬리스 시스템은 AAEON의 임베디드 AI 솔루션 BOXER-8100AI 제품군의 일부입니다. BOXER-8120AI는 헥사코어 NVIDIA Jetson TX2를 탑재하여 256개의 CUDA 코어와 Tensorflow, Caffe2 및 Mxnet을 포함한 다양한 AI 프레임워크와 사용자가 개발한 AI 추론 소프트웨어를 지원합니다. BOXER-8120AI에는 IP 카메라를 지원하는 211개의 Intel LAN(i8120) 포트가 있으며 방진 사양, 넓은 작동 온도 범위, 광범위한 전원 입력 및 알루미늄 섀시와 같은 일련의 견고한 설계 기능을 자랑합니다. BOXER-<>AI는 컴팩트하고 비용 효율적인 디자인과 강력한 처리 능력을 갖추고 있어 AI 플랫폼을 어디에나 배치할 수 있습니다. AAEON 제조업체 서비스는 구성, 사용자 정의 및 OEM/ODM 지원을 제공하여 AI 애플리케이션을 빠르고 효과적으로 제공할 수 있도록 합니다. I/O 포트를 변경하거나 BIOS를 재구성하는 등 AAEON은 헌신적인 하드웨어 솔루션 파트너이며 프로젝트의 특정 요구 사항을 충족합니다.

상세보기

[AAEON] 자동 광학 검사의 AI 비전

2023.07.12

[AAEON] 자동 광학 검사의 AI 비전

소개 모든 종류의 제조에서 중요한 단계는 검사 및 결함 감지입니다. 인쇄 회로 기판(PCB) 제조에서 작업은 머신 비전 컨트롤러와 자동 광학 검사 또는 줄여서 AOI로 알려진 응용 프로그램을 사용하여 수행됩니다. 그러나 복잡성이 증가하고 소형 구성 요소 및 보드가 사용됨에 따라 머신 비전 시스템이 작업을 따라잡기가 점점 더 어려워지고 있습니다. 머신 비전은 실제로 지능적이지 않지만 일종의 AI로 생각되는 경우가 많습니다. 머신 비전은 모든 단계와 조건을 시스템에 프로그래밍해야 하며, 이를 하드 코딩된 인텔리전스라고 합니다. PCB가 복잡해짐에 따라 프로그램이 더 복잡해지고 부피가 커져 오류가 발생할 수 있습니다. 육안 검사를 통해 PCB에 결함이나 결함이 있을 수 있는 모든 방법을 프로그래밍하는 것은 비현실적이며 거의 불가능합니다. 한 회사는 AOI를 구동하는 AI 솔루션을 만들고 있습니다. 그들의 솔루션은 AI가 결함과 결함을 식별하도록 훈련될 수 있으므로 설정 및 배포 시간을 단축합니다. AAEON은 AOI 애플리케이션 AI를 구동하는 하드웨어를 구축하고 개발하는 데 도움을 주기 위해 긴밀히 협력해 왔습니다. 도전 AOI는 집약적이고 까다로운 응용 프로그램입니다. 고성능 소프트웨어뿐만 아니라 똑같이 강력하고 고성능의 시스템이 필요합니다. 이로 인해 시스템 개발에 몇 가지 문제가 발생합니다. 높은 처리 수요 이미지와 신호를 빠르고 정확하게 처리하기 위해 AOI는 높은 컴퓨팅 성능과 프로세서 성능을 갖춘 시스템이 필요합니다. 시각 및 AI 처리 AOI의 요구 사항을 완전히 충족하려면 시스템이 그래픽/GPU 카드 또는 신경 가속기 모듈과 같은 확장 카드를 지원하여 이미지를 처리하고 AI 시스템을 구동해야 합니다. 카메라 및 센서 기계마다 카메라와 센서의 수에서 유형에 이르기까지 구성과 구성 요소가 다릅니다. AI 기반 AOI 솔루션의 잠재력을 최대한 활용하려면 시스템이 다양한 I/O 연결을 지원해야 합니다. 용액 AAEON은 개발자와 긴밀히 협력했으며 제조업체 서비스를 통해 작업에 가장 적합한 솔루션을 제공했습니다. AI Core XP6841이 탑재된 BOXER-8M은 AI 기반 AOI를 위한 최고의 솔루션으로 선택되었습니다. 인텔 프로세서 BOXER-6841M은 6세대 및 7세대 Intel Core 프로세서와 Intel Xeon 서버급 프로세서를 지원합니다. 최대 32GB의 메모리와 함께 제공되는 BOXER-6841M은 가장 까다로운 애플리케이션에 필요한 고성능 프로세싱을 제공합니다. 확장성 BOXER-6841M은 PCIe[x16], PCIe[x8] 및 PCIe[x1]를 포함한 다양한 확장 베이 구성을 제공합니다. 이를 통해 사용자는 8개의 Intel Movidius Myriad X VPU를 특징으로 하는 AI Core XP<> 모듈과 같은 엣지 컴퓨팅 애플리케이션을 구동하는 데 도움이 되는 확장 카드를 추가할 수 있습니다. 인상적인 I/O BOXER-6841M은 임베디드 산업용 애플리케이션용으로 설계되었으며 모든 프로젝트에 쉽게 통합할 수 있는 다양한 I/O 포트가 함께 제공됩니다. 3개의 LAN 포트와 0개의 USB <>.<> 포트를 통해 AOI 및 기타 애플리케이션에 사용하기 위해 다양한 카메라 및 센서에 연결할 수 있습니다. 영향 강력한 BOXER-6841M을 통해 개발자는 애플리케이션을 최대한 활용하여 재구성할 필요 없이 여러 제품 라인을 검사할 수 있는 AOI 시스템을 만들 수 있으며, 신제품에 대해 신속하게 교육을 받거나 이전에 알려지지 않은 결함을 식별할 수 있습니다. 이 시스템은 PCB 제조업체가 기존의 머신 비전 기반 AOI보다 더 높은 정확도와 더 적은 실수 및 오탐을 통해 비용을 절감하고 생산성을 높이는 데 도움이 될 것이며 이러한 제조업체의 고객 만족도도 높일 수 있습니다. 제품 AAEON의 BOXER-6841M 시스템은 가장 까다로운 머신 비전 및 AI Edge 애플리케이션을 위해 제작된 강력한 임베디드 산업용 PC입니다. 7세대 인텔 코어 및 인텔 제온 서버급 프로세서를 지원하는 BOXER-6841M은 최대 32GB의 메모리를 제공합니다. BOXER-6841M 제품군은 PCIe[x16], PCIe[x8] 및 PCIe[x1]를 포함한 확장 옵션의 조합을 제공합니다. 이를 통해 머신 비전 애플리케이션용 프레임 그래버 카드로 확장하거나 NVIDIA GeForce GTX 1080 또는 AAEON의 AI Core XP8과 같은 카드로 AI 가속을 수행할 수 있습니다. AI Core XP8은 4개의 Intel Movidius Myriad X 모듈을 탑재한 PCIe[x840] 확장 카드입니다. 이 혁신적인 모듈은 최대 560fps(일반 8fps)의 속도를 제공하여 가장 까다로운 AI 애플리케이션을 구동하는 데 도움이 됩니다. AI 추론을 AI Core XP8로 오프로드함으로써 시스템 프로세서가 다른 동시 작업을 처리할 수 있도록 하여 전체 시스템 성능을 향상시킵니다. AI Core XP<>은 Intel OpenVINO 툴킷 및 TensorFlow와 같은 AI 프레임워크와 호환됩니다.

상세보기

[AAEON] 얼굴 인식에 엣지 도입

2023.07.12

[AAEON] 얼굴 인식에 엣지 도입

소개 전 세계의 도시와 커뮤니티는 많은 요구 사항에 대한 솔루션으로 AI 엣지 컴퓨팅 애플리케이션을 사용하는 방향으로 전환하고 있습니다. 스마트 시티 및 스마트 커뮤니티 이니셔티브에서 지능형 빌딩 관리 및 스마트 보안에 이르기까지 이러한 도시, 커뮤니티 및 건물에 거주하는 사람들의 삶의 질과 웰빙을 개선하는 데 도움이 되는 많은 AI 에지 기반 애플리케이션이 있습니다. AI가 배포되는 한 가지 방법은 얼굴 인식 및 행동 분석을 사용하여 이러한 커뮤니티의 안전과 보안을 개선하는 것입니다. 얼굴 인식은 관심 있는 사람을 쉽게 식별하고 추적하는 데 도움이 될 수 있으며, 행동 분석은 가상 울타리를 사용하고 의심스러운 행동을 식별하여 보안을 향상시킵니다. 이러한 기술은 누락 및 분실물을 추적하고 찾는 데에도 사용할 수 있습니다. 이러한 AI Edge 기술의 이점은 시민들이 지역 사회와 가정에서 더 안전하다고 느끼게 함으로써 더 높은 삶의 질을 만드는 데 도움이 됩니다. 중국의 한 회사는 AI Edge 및 Smart City 솔루션의 배포를 주도하고 있으며 고급 안면 인식 애플리케이션을 구동하기 위한 새로운 엣지 컴퓨팅 플랫폼 개발을 시작했습니다. 이 안면 인식 시스템은 스마트 시티에 대한 관심 인물 추적, 스마트 빌딩의 지능형 보안 및 액세스 제어, 스마트 커뮤니티 역할에서 거주자 및 비거주자 식별과 같은 다양한 AI 애플리케이션에 배포되도록 설계되었습니다. 도전 고유한 요구 사항을 가진 강력하고 새로운 AI Edge 시스템을 통해 이 회사는 임베디드 AI 에지 플랫폼이 되기 위한 요구 사항뿐만 아니라 AI 시스템에 필요한 특정 요구 사항과 지원을 충족할 수 있는 임베디드 하드웨어 솔루션이 필요했습니다. 이러한 과제와 요구 사항은 AI 엣지 소프트웨어의 잠재력을 최대한 실현하기 위해 충족되어야 했습니다. 다중 카메라 입력 엣지 애플리케이션에 더 나은 커버리지와 추적을 제공하기 위해 안면 인식 시스템에는 여러 카메라 입력이 필요합니다. 또한 여러 카메라 입력을 지원하는 단일 시스템은 전체 배포 비용을 줄이는 데 도움이 되므로 더 적은 예산으로 도시와 지역 사회에 지능형 보안 솔루션을 더 매력적으로 만들 수 있습니다. 강력한 AI 프로세서 엣지 애플리케이션에 배포하기 위한 강력한 안면 인식 소프트웨어를 통해 AI 시스템은 소프트웨어를 효과적으로 실행할 수 있을 만큼 강력해야 합니다. 임베디드 시스템 회사의 AI 솔루션을 효과적이고 유연하게 배포할 수 있도록 하려면 시스템을 도시, 커뮤니티 및 건물에 대한 다양한 임베디드 구성으로 배포해야 합니다. 이를 위해서는 다양한 공간에 적합할 뿐만 아니라 다양한 환경과 기상 조건을 처리할 수 있을 뿐만 아니라 설치가 용이한 견고한 시스템이 필요합니다. 독점적 소프트웨어 보호 AI 기술의 대규모 개발업체인 이 회사는 소프트웨어를 보호하는 데 도움이 되는 시스템이 필요했습니다. 독점 소프트웨어를 공격으로부터 안전하게 보호하기 위해 회사는 소프트웨어가 복사되거나 도난당하는 것을 방지하기 위해 특수 암호화 보호 장치를 마련해야 했습니다. 커스텀 OS 회사의 AI 소프트웨어를 전문화하려면 맞춤형 운영 체제 및 시스템 기능의 개발이 필요했습니다. 이 회사는 맞춤형 Linux 빌드를 고안했지만 원활한 작동을 보장하기 위해 OS를 테스트하고 개선하는 데 도움을 줄 파트너가 필요했습니다. 용액 AAEON은 수상 경력에 빛나는 임베디드 AI Edge 솔루션 제조업체입니다. 이 회사는 AI 소프트웨어를 위한 하드웨어 솔루션을 제공할 뿐만 아니라 AI Edge 시스템을 시장에 출시하는 데 필요한 테스트 및 준비를 제공하는 데 필요한 지원을 제공하기 위해 AAEON에 접근했습니다. AAEON은 회사와의 긴밀한 협력을 통해 NVIDIA Jetson TX8120가 탑재된 BOXER-2AI 임베디드 AI 시스템이 가장 적합한 솔루션을 결정했습니다. 뛰어난 I/O 기능 BOXER-8120AI는 IP 카메라 네트워크 구축에 완벽한 8120개의 기가비트 이더넷 포트를 포함하여 I/O 기능을 강력하게 보완합니다. 이 회사는 또한 BOXER-<>AI를 COM 및 CANbus 포트로 구성하여 시스템이 더 많은 센서 또는 에지 노드와 연결할 수 있도록 하여 스마트 시티 및 스마트 커뮤니티 프레임워크에 더 긴밀하게 통합할 수 있도록 요청합니다. NVIDIA Jetson TX2 탑재 BOXER-8120AI는 NVIDIA Jetson TX2로 구동됩니다. Jetson TX2는 듀얼 코어 Denver 2 및 쿼드 코어 ARM Cortex-A57 프로세서를 결합하여 만든 헥사코어 프로세서를 특징으로 합니다. 또한 8GB의 LPDDR4 메모리와 최대 32GB의 온보드 eMMC 스토리지를 갖추고 있습니다. 최대 256개의 CUDA 코어 프로세싱을 지원하는 NVIDIA Jetson TX8120가 탑재된 BOXER-2AI는 AI 시스템에 필요한 성능을 제공합니다. 콤팩트하고 견고한 디자인 BOXER-8120AI는 컴팩트하고 견고하게 제작되었습니다. 두께가 30mm에 불과하여 거의 모든 좁은 공간에 들어갈 수 있습니다. 팬이 없는 디자인과 전체 알루미늄 섀시를 통해 -20°C에서 50°C의 넓은 온도 범위를 포함하여 다양한 조건에서 작동할 수 있습니다. 또한 회사는 BOXER-8120AI의 미적 디자인에 깊은 인상을 받았습니다. 소프트웨어 보안 AAEON은 고객과 협력하여 소프트웨어를 안전하게 유지하고 지적 재산의 불법 복제 및 도난을 방지하는 데 도움이 되는 임베디드 시스템을 제공합니다. BOXER-8120AI에는 몇 가지 주요 보호 기능이 기본으로 제공됩니다. 회사와 협력하여 BOXER-8120AI를 고급 암호화 보호 시스템으로 구성하여 특정 요구 사항과 우려 사항을 해결했습니다. OEM/ODM 서비스 AAEON은 OEM/ODM 서비스를 통해 CANBus 포트 추가부터 맞춤형 소프트웨어 보호 제공에 이르기까지 지원을 제공했습니다. AAEON은 회사와 긴밀히 협력하여 회사가 사용하기로 선택한 맞춤형 Linux 빌드를 테스트하고 개선하는 데 도움을 주었습니다. 또한 AAEON은 BIOS를 사용자 정의하여 불필요한 드라이버와 하드웨어 컨트롤러를 제거하여 시스템을 효율적이고 간결하게 만들었습니다. 이를 통해 최종 사용자 경험이 개선되었으며 테스트 시간을 단축하고 시장 출시 시간을 단축할 수 있었습니다. 영향 AAEON은 회사와의 긴밀한 협력을 통해 하드웨어 솔루션뿐만 아니라 OEM/ODM 지원을 제공하여 안면 인식 AI 솔루션을 신속하게 시장에 출시할 수 있도록 지원했습니다. 회사의 안면 인식 에지 AI 시스템의 배치로 도시는 교통 및 사고 모니터링에 대한 스마트 시티 노력을 확장할 수 있고, 스마트 커뮤니티는 거주자에게 더 나은 안전을 제공할 수 있으며, 지능형 보안 기능이 있는 건물은 내부 사람과 재산을 안전하게 보호할 수 있습니다. AI Edge 애플리케이션의 수와 지능형 솔루션을 제공할 수 있는 능력이 계속 증가함에 따라 전 세계의 도시와 커뮤니티는 주민들에게 더 높은 삶의 질을 누릴 수 있게 될 것입니다. BOXER-8120AI 임베디드 AI 시스템 BOXER-8120AI는 엣지 AI 컴퓨팅을 위해 설계되었습니다. 임베디드 AI 솔루션 제품군인 BOXER-8100AI의 일부인 이 제품은 NVIDIA Jetson TX2가 장착되어 256개의 CUDA 코어와 Tensorflow, Caffe2 및 Mxnet을 포함한 다양한 AI 프레임워크를 지원합니다. 사용자는 BOXER-8120AI에 자신의 AI 추론 소프트웨어를 설치할 수도 있습니다. BOXER-8120AI에는 IP 카메라를 지원하는 211개의 Intel LAN(i8120) 포트가 있으며 방진 사양, 넓은 작동 온도 범위, 광범위한 전원 입력 및 알루미늄 섀시와 같은 일련의 견고한 설계 기능을 자랑합니다. BOXER-<>AI는 컴팩트하고 비용 효율적인 디자인과 강력한 처리 능력을 갖추고 있어 AI 플랫폼을 어디에나 배치할 수 있습니다. AAEON 제조업체 서비스는 구성, 사용자 정의 및 OEM/ODM 지원을 제공하여 AI 애플리케이션을 빠르고 효과적으로 제공할 수 있도록 합니다. I/O 포트를 변경하거나 BIOS를 재구성하는 등 AAEON은 헌신적인 하드웨어 솔루션 파트너이며 프로젝트의 특정 요구 사항을 충족합니다.

상세보기

[GIGABYTE] 제너레이티브 AI를 활용하려면 "훈련"과 "추론"에 대해 배워야 합니다

2023.07.04

[GIGABYTE] 제너레이티브 AI를 활용하려면 "훈련"과 "추론"에 대해 배워야 합니다

  물론 생성형 AI는 실제로 붓을 들고 있는 로봇이 아닙니다. 그러나 이 연상시키는 이미지는 AI의 미래가 얼마나 사랑스럽고 유능하며 영감을 줄 수 있는지를 나타냅니다.   생성 AI의 기량을 재탕하기보다는, 우리는 계속해서 커튼을 뒤로 젖힐 것입니다 : 모든 생성 AI는 "훈련"과 "추론"이라는 두 가지 필수 프로세스로 요약됩니다. 그들이 어떻게 작동하는지 이해하면, 당신은 그것들이 당신을 위해 일할 수 있는 확고한 위치에 있게 될 것입니다. 챗봇인 ChatGPT를 예로 들어 보겠습니다. "GPT"의 "T"는 트랜스포머(transformer)의 약자로, 대규모 언어 모델(Large Language Model) 또는 줄여서 LLM이라고 하는 자연어 처리(NLP)의 하위 집합에서 사용하는 아키텍처입니다. LLM은 딥 러닝 및 인공 신경망 (ANN) 기술을 통해 레이블이 지정되지 않은 텍스트의 큰 코퍼스 (우리는 수조에 달하는 단어 수에 대해 이야기하고 있습니다)에서 스스로를 "훈련"할 수 있기 때문에 인간처럼 읽고 쓰는 것을 컴퓨터에 가르치는 주된 방법이되었습니다. 간단히 말해서 위키백과 전체에 해당하는 내용을 통해 읽고 쓰는 법을 스스로 배웠기 때문에 거의 모든 주제에 대해 대화할 수 있습니다. 쿼리에 응답하기 위해 과거 훈련을 활용하는 부분을 "추론"이라고합니다.용어집:《자연어 처리란?》《딥러닝이란?》 자, 그렇다면 Stable Diffusion이나 Midjourney 또는 무수한 텍스트-이미지 모델 중 하나는 어떻게 작동합니까? ChatGPT와 크게 다르지 않은데, 이번에는 언어 모델에 생성 이미지 모델이 첨부되어 있다는 점을 제외하면 말입니다. 이 모델은 또한 많은 양의 디지털 텍스트와 이미지에 대해 훈련되어 AI가 이미지를 텍스트로 변환하거나(단어를 사용하여 그림에 있는 내용을 설명) 또는 그 반대로(그리도록 요청한 것을 그리기) 변환할 수 있습니다. 최종 작품을 더욱 매력적으로 만들기 위해 마스킹이나 블러를 재치 있게 주입하는 것은 스마트폰으로 셀카를 찍어본 사람이라면 누구에게나 제2의 천성처럼 느껴질 것입니다. AI에게 올바른 프롬프트를 제공하기 위해 충분한 노력을 기울이면 AI가 생성한 예술이 미술 경연 대회에서 블루 리본을 수상한 것은 놀라운 일이 아닙니다.이제 가장 인기 있는 형태의 생성 AI가 작동하는 방식에 대한 기본 사항을 보여드렸으므로 인공 지능의 이 흥미롭고 새로운 돌파구를 만드는 데 필요한 관련 기술과 도구에 대해 자세히 알아보겠습니다.《용어집: 인공 지능이란 무엇입니까?》 일반적으로 AI 훈련 과정에서 레이블이 지정된 데이터의 바다가 알고리즘에 쏟아져 "연구"됩니다. AI는 추측을 한 다음 정확성을 높이기 위해 답을 확인합니다. 시간이 지남에 따라 AI는 추측에 능숙해져서 항상 정확한 추측을 할 것입니다. 즉, 작업하기를 원하는 정보를 "학습"한 것입니다.   의심의 여지 없이, 상호 연결된 전자 장치가 매일 수집하는 방대한 양의 데이터인 빅 데이터는 AI가 학습할 수 있는 풍부한 정보를 갖도록 하는 데 큰 도움이 되었습니다. 이전의 훈련 방법은 "레이블이 지정된" 데이터에 의존했고 인간 프로그래머가 감독했습니다. 그러나 최근의 발전으로 AI는 레이블이 지정되지 않은 데이터를 사용하여 자체 지도 또는 반 지도 학습에 참여할 수 있게 되어 프로세스가 크게 빨라졌습니다.《용어집: 빅 데이터란 무엇입니까?》말할 필요도 없이 AI를 훈련시키는 데 필요한 컴퓨팅 리소스의 범위는 숨이 멎을 뿐만 아니라 기하급수적으로 증가하고 있습니다. 예를 들어, 1년에 출시된 GPT-2018은 약 8.0페타플롭/초일(pfs-일)의 리소스를 사용하여 "96개의 GPU에서 한 달" 동안 훈련되었습니다. 3년에 출시된 GPT-2020는 3,630pfs-day의 리소스를 사용했습니다. GPT-4의 현재 반복에 대한 숫자는 사용할 수 없지만 관련된 시간과 컴퓨팅이 GPT-3보다 훨씬 더 컸다는 것은 의심의 여지가 없습니다.《용어집: GPU란 무엇입니까?》따라서 AI 교육에 참여하고 싶다면 강력한 GPU 컴퓨팅 플랫폼이 필요합니다. GPU는 병렬 컴퓨팅을 통해 많은 양의 데이터를 처리하는 데 탁월하기 때문에 선호됩니다. 병렬화 덕분에 앞서 언급한 트랜스포머 아키텍처는 공급되는 모든 순차적 데이터를 한 번에 처리할 수 있습니다. 안목 있는 AI 전문가에게는 AI를 훈련하는 데 걸리는 시간을 더욱 줄이는 것이 목표라면 GPU 내의 코어 유형도 차이를 만들 수 있습니다.자세히 알아보기:《용어집:병렬 컴퓨팅이란 무엇입니까?》《용어집: Core란?》《CPU vs. GPU: 어떤 프로세서가 적합합니까? GIGABYTE 기술 가이드》     추론: 작동 방식, 사용할 도구 및 GIGABYTE가 도울 수 있는 방법 AI가 제대로 훈련되고 테스트되면 추론 단계로 넘어갈 차례입니다. AI는 익숙하지 않은 새로운 데이터의 홍수에 노출되어 가라앉는지 헤엄치는지 확인합니다. 생성 AI의 경우, 이것은 명왕성의 도심 범죄에 대한 에세이 작성 요청부터 19 세기 일본 예술가 우타가와 히로시게 (Utagawa Hiroshige)의 스타일로 말을 탄 우주 비행사의 그림을 그리라는 요구에 이르기까지 모든 것을 의미 할 수 있습니다.AI는 이러한 새로운 입력의 매개 변수를 광범위한 학습 프로세스 중에 "학습"된 것과 비교하고 적절한 출력을 생성합니다. 이러한 전방 및 후방 전파가 레이어 사이에서 분리되는 동안 다른 흥미로운 일도 일어나고 있습니다. AI는 다음 훈련 세션을 위해 인간 사용자로부터 받은 응답을 컴파일합니다. 잘한 일에 대해 칭찬을 받을 때 주의를 기울이고, 인간이 그 결과물을 비판할 때 특히 주의를 기울입니다. 이러한 지속적인 훈련과 추론 루프는 인공 지능을 매일 더 스마트하고 생생하게 만드는 것입니다. GIGABYTE의 G293-Z43은 소형 70U 섀시에 업계 최고 수준의 초고밀도 AMD Alveo™ V2 추론 가속기 카드 <>개를 제공합니다. 이 설정은 뛰어난 성능과 에너지 효율성을 제공할 뿐만 아니라 대기 시간을 단축합니다. 이러한 고밀도 구성은 GIGABYTE의 독자적인 서버 냉각 기술에 의해 가능합니다.   생성형 AI는 소매업과 제조업에서 의료와 은행업에 이르기까지 우리 삶의 점점 더 많은 측면에 침투하고 있습니다. 결국 선택하는 서버 솔루션은 AI를 "훈련"하기 위해 데이터를 처리하든, 현실 세계에서 "추론"할 수 있도록 AI 모델을 배포하든, 생성형 AI 여정의 어느 부분에 힘을 실어주고 싶은지에 따라 달라집니다. 새로운 AI 발명품의 기량은 프로세서 코어의 아키텍처와 같은 미세한 것부터 GIGABYTE Technology의 전체 솔루션과 같은 포괄적인 것에 이르기까지 AI 작업을 위해 설계된 수많은 전용 도구가 있다는 것을 이해하면 도달할 수 없는 것처럼 보이지 않을 것입니다. 성공을 달성하기 위한 도구가 마련되어 있습니다. 당신이해야 할 일은 인공 지능이 어떻게 "당신의 삶을 업그레이드"할 수 있는지 발견하는 것입니다.

상세보기

[GIGABYTE] 실리콘 밸리 스타트업 Sushi Cloud, GIGABYTE와 함께 베어메탈 서비스 출시

2023.06.16

[GIGABYTE] 실리콘 밸리 스타트업 Sushi Cloud, GIGABYTE와 함께 베어메탈 서비스 출시

    Sushi Cloud는 베어 메탈 버전의 클라우드 서비스로 시장에서 경쟁하는 "챌린저 클라우드 컴퓨팅 회사"로 자리매김하고 있습니다. 베어 메탈은 최종 사용자에게 비용을 지불한 컴퓨팅 리소스에 대한 독점적인 액세스 권한을 제공합니다. GIGABYTE의 R152-Z30 랙 서버는 Sushi Cloud의 베어 메탈 인프라의 중추입니다.   하드웨어 측면에서 우리 모두는 서버의 강력한 프로세서가 실제로 빛을 발하려면 인상적인 메모리와 저장 용량이 필요하다는 것을 알고 있습니다. R152-Z30은 8채널 RDIMM/LRDIMM DDR4 및 16개의 DIMM 슬롯을 지원합니다. 기가바이트의 독특한 설계는 채널당 2개의 DIMM을 사용할 때에도 최대 메모리 속도를 허용하며, BIOS 설정에서 3200개의 DPC에 대해 2Mhz의 클럭 속도를 활성화할 수 있습니다. 스토리지의 경우 R152-Z30에는 4개의 3.5인치 SATA 핫스왑 가능 HDD/SSD 베이가 있으며 2.5인치 HDD/SSD도 지원할 수 있습니다. PCIe/NVMe 인터페이스를 갖춘 초고속 M.2는 솔리드 스테이트 스토리지의 잠재력을 최대한 발휘하는 데 사용됩니다. 이러한 하드웨어 구성을 통해 R152-Z30은 가장 힘든 컴퓨팅 작업을 처리할 수 있습니다.용어집:《PCIe란? 》《NVMe란? 》Sushi Cloud의 고객은 자체 운영 체제와 소프트웨어를 선택하는 데 익숙하며, 이는 R152-Z30이 의사가 주문한 바로 그 제품임을 의미합니다. GIGABYTE 서버는 여러 저명한 소프트웨어 파트너의 인증을 받았으며 다양한 생태계에서 호환됩니다. 주요 소프트웨어 제휴 파트너 프로그램의 회원인 GIGABYTE의 지위는 공동 솔루션을 신속하게 개발하고 검증할 수 있음을 의미합니다. 이를 통해 고객은 효율성, 유연성 및 비용 최적화를 통해 IT 인프라 및 애플리케이션 서비스를 현대화할 수 있습니다.     원격 관리는 매우 중요한 GIGABYTE 서버의 또 다른 기능입니다. Sushi Cloud의 서버는 종종 다른 국가에 설치되기 때문에 지원 직원은 고객에게 적절한 서비스를 제공하기 위해 서버 관리 시스템에 빠르고 안정적으로 액세스해야 합니다. 서버에 내장된 특수 프로세서를 통해 GIGABYTE는 다음과 같은 두 가지 무료 관리 응용 프로그램을제공합니다.● GIGABYTE 관리 콘솔서버 또는 소규모 컴퓨팅 클러스터의 관리 및 유지 보수를 위해 사용자는 사전 설치된 GIGABYTE 관리 콘솔을 사용하여 브라우저 기반 그래픽 사용자 인터페이스(GUI)를 통해 실시간 상태 모니터링 및 관리를 수행할 수 있습니다. GIGABYTE Management Console은 표준 IPMI 사양, 자동 이벤트 기록, 통합 SAS/SATA/NVMe 장치 및 RAID 컨트롤러 펌웨어를 지원합니다.용어집:《컴퓨팅 클러스터란 무엇입니까? 》《RAID란? 》● GIGABYTE Server ManagementGSM은 인터넷을 통해 서버 클러스터를 동시에 관리할 수 있는 소프트웨어 제품군입니다. GSM은 공식 GIGABYTE 웹 사이트에서 다운로드 할 수 있습니다. GSM은 IPMI 및 Redfish 표준을 준수하며 실시간 원격 제어를 위한 GSM 서버, 원격 모니터링 및 관리를 위한 GSM CLI, OS를 통한 데이터 검색을 위한 GSM 에이전트, 모바일 앱을 통한 원격 관리를 위한 GSM 모바일, 실시간 모니터링 및 관리를 위해 VMware vCenter를 사용할 수 있는 GSM 플러그인과 같은 시스템 관리 기능의 전체 범위를 포함합니다.

상세보기

[GIGABYTE] 0 to 100 KPH in 3.3 Seconds! NTHU Builds Electric Formula Student Race Cars with GIGABYTE

2023.06.15

[GIGABYTE] 0 to 100 KPH in 3.3 Seconds! NTHU Builds Electric Formula Student Race Cars with GIGABYTE

Representing Hsinchu’s Tsing Hua University, NTHU Racing is one of Taiwan’s top Formula Student racing teams. In 2019, its electric formula student race car, the “TH04”, took second place in Formula SAE Japan. In August of 2022, its new and improved, 100% manufactured in Taiwan “TH06” raced for the gold in Formula Student Germany. Tsing Hua University built the “TH06” using GIGABYTE Technology’s W771-Z00 and W331-Z00 Tower Server/Workstation products. From finite element analysis (FEA) and computational fluid dynamics (CFD) modelling and analysis during the design phase, to racing simulations and experimenting with new tech during the testing phase, GIGABYTE servers provided NTHU Racing with the processing power and versatility it needed to engineer a high-performing electric vehicle that can go from 0 to 100 kph in 3.3 seconds—almost on par with Tesla’s Model S, which can go from 0 to 60 mph in 2.6 seconds.     The thunder of engines. The odor of burnt rubber. A checkered flag waving beneath a startling sky, above young hearts yearning to make their mark on history.To a layperson, automobile racing may seem like the pastime of motorsport enthusiasts and the vanity projects of big auto brands. But an engineer looks at a race car and sees something more. They see the care and expertise that went into the design; they see, too, the skill and daring it takes to push the machine to its limit. Every car that rolls out of the shop is a feat of human ingenuity. A car that outperforms its peers is an achievement of the highest order.Formula Student, a globe-spanning series of engineering design competitions, uses auto racing to test the theoretical knowledge of students in a practical context. By asking student teams to design and build their own formula-style racing vehicles, the organizers provide a platform for brilliant young minds to demonstrate their engineering skills. Since its conception in the late 1970s, Formula Student has held races around the world. It has hosted teams from over 1,000 universities.Located in Hsinchu, Taiwan’s Tsing Hua University (NTHU) is a comprehensive research university renowned for its science and technology programs. It is also an avid participant in Formula Student. The NTHU Racing Team is made up of more than 70 students from a diverse coalition of colleges, including power mechanical engineering, chemical engineering, computer science, economics, and more. This motley crew of race car aficionados has taken the world by storm. In 2019, NTHU Racing’s electric formula race car, the “TH04”, took second place in Formula SAE Japan. On the Formula Student Electric World Ranking List, NTHU Racing ranked number 23 out of 203 universities in 2022. It beat out some of the world’s most prestigious institutes—including the Massachusetts Institute of Technology.Learn More:《Glossary: What is Computer Science?》《GIGABYTE Helps NCKU Train Award-Winning Supercomputing Team》《GIGABYTE’s ARM Server Boosts Development of Smart Traffic Solution by 200%》In 2022, NTHU Racing set its sights on Formula Student Germany, which was held in August in Hockenheim—home of the Hockenheimring and the Formula One German Grand Prix. NTHU Racing was represented by its newest champion: the “TH06”, an electric formula student race car that's 100% manufactured in Taiwan. Weighing in at 245 kilograms and running on 80 kilowatts of electric power, the TH06 is a four-wheel drive vehicle that can go from 0 to 100 kilometers per hour (kph) in 3.3 seconds. What does that mean? Consider the fact that a topline Tesla Model S needs 2.6 seconds to accelerate from a standstill to 60 miles per hour (the equivalent of 100 kph).The TH06 is a beast of a machine. NTHU Racing built it with GIGABYTE Technology’s W771-Z00 and W331-Z00 Tower Server/Workstation products. From finite element analysis (FEA) and computational fluid dynamics (CFD) modelling and analysis during the design and manufacturing phase, to racing simulations and new tech applications during the testing phase, the W771-Z00 and W331-Z00 provide the processing power and usability the student team needed to build state-of-the-art electric formula race cars. What’s more, NTHU did all this using Taiwanese tech and mostly made-in-Taiwan components—similar to the spirit of the Hon Hai-led MIH Consortium—so that the TH06 can fully represent Taiwan on the international stage.Learn More:《More information about GIGABYTE’s Tower Server/Workstation》《Japan’s Waseda University Simulates Natural Disasters with GIGABYTE GPU Server and Workstations》     Design and Manufacturing: Enterprise-grade Computing Powered by AMD CPUs and GPUs Designing an entire car from scratch is a monumental undertaking. Even before the first parts of the frame are soldered together, and even before the first sets of gears are assembled, a lot of grueling work must be done—on computers.According to Danny Lin (林庭偉), Captain of NTHU Racing, there are over 4,000 components in a formula student race car. Each part of the TH06 had to be rendered and assembled virtually using computer-aided design (CAD) software. The 3D models of key elements, such as the electric vehicle’s motor, inverter, and tires, needed to be tested with programming and numeric computing platforms, such as MATLAB.Even then, the design process is far from the finish line. The computer model of the race car must be subjected to a full set of analyses. One example is computational fluid dynamics (CFD) modelling and analysis, which focuses on the vehicle’s centerline streamline, pressure contour, and velocity profile. This helps to reduce wind resistance and improve the race car’s speed. Another example is finite element analysis (FEA), which checks the vehicle’s steel frame, composite material, chassis, and accumulator. FEA is used to understand how each part of the car will react to stress, vibration, fatigue, and other factors that may affect performance or safety.Learn More:《GIGABYTE Server Technology Helps to Achieve Aerodynamic Vehicle Design》《Israeli Developer of Autonomous Vehicles Chose GIGABYTE Servers》 The powerful GIGABYTE W771-Z00 tower server/workstation brings enterprise-grade computing prowess straight to the desktop. NTHU Racing uses it for a lot of the heavy lifting during the design and manufacturing process of the electric formula race car, including computational fluid dynamics modelling and analysis, and finite element analysis.   GIGABYTE W771-Z00 and W331-Z00 are capable of handling these computationally intensive, iterative computation workloads. This is because they are outfitted with cutting-edge central processing units (CPUs) and general-purpose graphics processing units (GPGPUs) provided by AMD. The W771-Z00 is powered by AMD Ryzen™ Threadripper™ PRO 3995WX CPU and AMD Radeon™ RX 6800 XT GPU. The W331-Z00 runs on AMD Ryzen™ 9 5950X CPU and AMD Radeon™ RX 6800 XT GPU. Through a process known as heterogeneous computing, the two servers are able to accelerate NTHU Racing’s design process and help them bring their magnum opus into existence.Glossary:《What is GPGPU?》《What is GPU?》《What is Heterogeneous Computing?》The AMD Ryzen™ Threadripper™ PRO processor is specially designed for workstation users that work with rendering or the creation of visual effects. This market sector encompasses more than animation studios or render farms; engineering, data science, and oil & gas exploration can also benefit from the CPUs’ high number of cores, leading single or multi-thread performance, and incredible throughput via PCIe lanes. AMD Radeon™ RX 6800 XT GPU is a new generation of workstation GPUs that is ideal for mainstream CAD applications and media or entertainment-related workloads. Based on the AMD RDNA™2 architecture, it provides hardware-based ray tracing and variable rate shading (VRS) to deliver performance improvements across the board.Learn More:《What is Render Farm?》《What is Core?》《What is Thread?》《What is PCIe?》《NCHC and Xanthus Elevate Taiwanese Animation with GIGABYTE Servers》《GIGABYTE’s GPU Servers Help Improve Oil & Gas Exploration Efficiency》Captain Danny Lin uses an example to vividly illustrate how GIGABYTE’s servers are contributing to NTHU Racing’s success. “Computational fluid dynamics is arguably the most compute-intensive part of the design process. High-end processors are needed to handle these workloads. A normal computer may take one or two days just to run one simulation. By using GIGABYTE, we are able to complete the same task in a third, or even a quarter of the time.”     Testing and Practicing: Excellent Versatility for Different Test Environments The computational and versatility features of the W771-Z00 and W331-Z00 are a boon to NTHU Racing beyond the design process. A prototype vehicle must be tested in the field and continuously upgraded. This is usually done through test drives. However, a student team may not have access to such facilities. Not to mention, there is a dearth of racing circuits in Taiwan. The GIGABYTE W331-Z00 is a versatile tower server/workstation that offers convenient and optimal versatility. NTHU Racing runs racing simulations on it to test prototypes and prepare for electric vehicle racing. It also develops autonomous driving tech to prepare for future races designed for self-driving cars.   NTHU Racing overcame this hurdle by running a racing simulator on the GIGABYTE tower server/workstation. The set-up looks almost like an arcade-style racing game, complete with a driver’s seat, a steering wheel, a stick, and a flat-screen monitor to simulate road conditions. To an outsider, this may look like a contender for the metaverse. But for NTHU students, this is a good way to help drivers accommodate to the racetrack and hone their skills—at any time, in any weather.Learn More:《Glossary: What is Metaverse?》《ArchiFiction Achieves Naked-Eye 3D Virtual Reality with GIGABYTE Workstations》There is another reason why the W771-Z00 and W331-Z00’s versatility and usability is essential to NTHU Racing’s goal of winning the gold. Since Formula Student revolves around engineering knowledge, the application of cutting-edge automotive tech is a viable way for the teams to put themselves on the map. NTHU Racing has already made the choice to focus on electric vehicles, because they see the upcoming trend of electric automobiles in the near future. Besides electric vehicles, what other new tech may pave the way for a Taiwanese university to pull ahead of its peers?The answer, according to NTHU Racing, is autonomous vehicles—self-driving cars that have advanced into the upper strata of ADAS (Advanced Driver Assistance Systems). Many universities across Taiwan are already researching self-driving tech, and Formula Student has announced exclusive races for autonomous vehicles. Even as NTHU Racing prepares for electric vehicle competitions, the team is also running driverless simulations on the GIGABYTE servers, so that the Taiwanese team may have an edge in future Formula Student races.Learn More:《Glossary: What is ADAS?》《To Empower Scientific Study, NTNU Opens Center for Cloud Computing》A member of NTHU Racing describes GIGABYTE W771-Z00 and W331-Z00 in this way: “The diverse selection of expansion slots and the optimal thermal design allow us to install or remove different modules according to our need. The powerful GIGABYTE workstations save us a lot of rendering time, so we can achieve more design and computing work with much less effort!”The W771-Z00 is equipped with components that ensure optimal PCIe 4.0 signal quality, such as PCB, PCIe slots, and M.2 connectors. It supports up to four double-wide accelerators, which help it deliver high levels of performance for 3D rendering, deep learning, and high performance computing (HPC). The AMD Ryzen™ Threadrippper™ PRO platform offers eight DIMM slots for 8-channel DDR4-3200 memory. In terms of storage, users can benefit from a mix of hot-swappable HDD and SSD bays.Glossary:《What is Deep Learning?》《What is High Performance Computing (HPC)?》《What is DIMM?》 GIGABYTE is pleased to support NTHU Racing’s effort to develop groundbreaking formula student race cars with its advanced server products. The nurturing of bright young minds is in keeping with GIGABYTE’s long-term CSR, ESG, and SDGs-related efforts, as well as its corporate vision: “Upgrade Your Life”.   The W331-Z00 supports PCIe 4.0, which can provide higher bandwidth for GPUs and faster storage. Like the W771-Z00, it also offers multiple DIMM slots for memory modules. NVMe and SATA storage options are available to fulfill the workstation user’s hot and cold data processing requirements.《Glossary: What is NVMe?》As for thermal design, Automatic Fan Speed Control is enabled in the majority of GIGABYTE’s air-cooled servers. The speed of individual fans will automatically adjust according to feedback from temperature sensors placed strategically in the server. This helps to achieve an optimal balance between cooling and power efficiency.     GIGABYTE Believes in Nurturing the Best and Brightest in Taiwan The two faculty advisors of NTHU Racing are Dr. Chao-An Lin (林昭安), Associate Dean, Chairman of Interdisciplinary Program of Engineering (IPE), and Professor of Power Mechanical Engineering (PME); and Dr. Pei-Jen Wang (王培仁), Professor of PME and Chairman of the Scientific Instrument Center. Both professors have expressed their pride in and support for the student racing team.“From the start, I felt that NTHU had to throw its hat into the ring, so we may know where we stand on the global stage,” says Dr. Lin.GIGABYTE Technology is pleased to be part of Tsing Hua University’s effort to nurture the best and brightest students in Taiwan. By using the most advanced server products to develop groundbreaking formula student race cars, NTHU Racing has every chance to take the gold in the Formula Student competitions and win recognition on the world stage. GIGABYTE is renowned for its commitment to CSR (corporate social responsibility), ESG (Environmental, Social, and Corporate Governance), and Sustainable Development Goals (SDGs). Helping one of Taiwan’s top universities advance its vision of technological education is in keeping with these efforts, as well as the GIGABYTE motto: “Upgrade Your Life”—which is a sincere conviction that brilliant young minds can use high tech solutions to change our world for the better.

상세보기

[GIGABYTE] Japanese Telco Leader KDDI Invents Immersion Cooling Small Data Center with GIGABYTE

2023.06.15

[GIGABYTE] Japanese Telco Leader KDDI Invents Immersion Cooling Small Data Center with GIGABYTE

Japanese telco giant KDDI Corporation has invented a new class of data centers that are mobile and eco-friendly. These “container-type immersion cooling small data centers” employ “single-phase immersion cooling” to reduce power consumption by 43% and lower the PUE below 1.07. GIGABYTE Technology drew from its years of experience in the telco sector to provide the R282-Z93 and R182-Z91 Rack Servers for KDDI to use as the management and GPU computing nodes in the data center. KDDI benefits from the servers’ powerful 3rd Gen AMD EPYC™ CPUs, the scalable, high-density configuration of NVIDIA® GPUs in small form factors, and the servers’ optimized compatibility with the liquid-based data center cooling solution. GIGABYTE’s participation in KDDI’s project is in line with GIGABYTE’s long-term CSR and ESG efforts, which are focused on working with global industry leaders to “Upgrade Your Life” with high tech while building a greener, more sustainable environment for our future.     KDDI Corporation, which ranks alongside SoftBank Group Corp. and NTT Docomo Inc. as one of Japan’s top three telecommunications companies, started work in July of 2020 on a new, experimental design for data centers that may set the trend for edge computing and “net zero” green computing. These modular, containerized micro data centers, which KDDI refers to as “container-type immersion cooling small data centers” (コンテナ型液浸スモールデータセンター), are expected to drastically reduce both the carbon footprint and the installation lead time of data centers.Learn More:《Visit GIGABYTE’s CSR Homepage to See How We are Giving Back to the World!》《Glossary: What is Data Center?》《Glossary: What is Edge Computing?》There are many benefits to such a design. For one thing, because these data centers are portable and convenient to install, they can quickly respond to a burst in demand in a specific location (such as an outdoor music festival—think Coachella) or an emergency situation (such as an earthquake). What’s more, since these data centers are environmentally friendly and sustainable, they can help us build the smart, interconnected world of tomorrow—without having an adverse effect on the environment.This second point is worth going deeper into. As our lives become more digitized, the international community is building more and more data centers. They are an indelible part of our modern IT infrastructure, because they contribute to every high tech invention you can think of, from extended reality (XR) and generative AI to self-driving cars and space exploration. However, data centers eat up a lot of energy. By some estimates, data centers consume 2% of the world’s electricity and emit roughly as much carbon dioxide (CO2) as the entire aviation industry. How to build new data centers without harming the environment or dumping more carbon into the atmosphere—that is the million-dollar question (or billion-dollar, if you adjust for inflation) that IT experts everywhere are grappling with.Learn More:《Glossary: What is IT?》《Glossary: What is Metaverse?》《ArchiFiction Achieves Naked-Eye 3D Virtual Reality with GIGABYTE Workstations》《GIGABYTE’s ARM Server Boosts Development of Smart Traffic Solution by 200%》《Lowell Observatory Looks for Habitable Exoplanets with GIGABYTE Servers》KDDI may have hit upon a solution: a revolutionary method of data center cooling known as “immersion cooling”. Immersion cooling is a liquid-based thermal management system that submerges the servers directly in a bath of dielectric, nonconductive coolant. Since this is more energy-efficient than air cooling, the data center’s PUE, which is its total energy consumption divided by its computing equipment’s energy consumption, can be lowered below 1.07, by KDDI’s estimates. That is a 43% reduction in electricity use when compared with air-cooled data centers, which may have an average PUE of around 1.7.《Glossary: What is PUE?》By adopting immersion cooling in its micro data centers, KDDI hopes to create a win-win situation that fulfills two important aspects of its corporate vision. There are two important reasons why KDDI is exploring possible new designs for data centers. The first is that such a design may contribute to the digital transformation (DX) of Japan. The second is to meet the carbon neutrality goals outlined in "KDDI GREEN PLAN 2030", which is the company’s roadmap to combating climate change, protecting biodiversity, and ushering in the circular economy.Learn More:《Visit GIGABYTE’s Dedicated Solutions Page to Learn All about Immersion Cooling》《How to Pick a Cooling Solution for Your Servers? A Tech Guide by GIGABYTE》 KDDI’s “container-type immersion cooling small data center” is a micro data center housed within a 12ft shipping container. The servers within are cooled with the revolutionary “single-phase immersion cooling” technology, which can help the data center reduce power consumption by 43% and lower the PUE below 1.07.   In fact, there are two types of immersion cooling. In the “two-phase” solution, the coolant undergoes a continuous cycle of vaporization and condensation within the sealed tank, and the heat is extracted from the vapors through a condenser at the top of the tank. In the “single-phase” solution, the coolant does not vaporize; instead, it is pumped to a coolant distribution unit (CDU) to remove the heat. GIGABYTE Technology, a leading brand of data center and server solutions, has already built a two-phase immersion cooling solution for a prominent IC foundry giant that leads the world in advanced process technology.Learn More:《Press Release: Building a Two-phase Immersion Cooling Solution for IC Foundry Giant, GIGABYTE Is Looking to Set New Standards for Modern Data Center》《As Good as Gold: Immersion Cooling Accelerates Oil Extraction》KDDI Corporation opted for single-phase immersion cooling. It invited GIGABYTE Technology to participate in its “container-type immersion cooling small data centers” project. GIGABYTE provided one R282-Z93 and two R182-Z91’s from its state-of-the-art line of Rack Servers to serve as the management and GPU computing nodes. Benefiting from GIGABYTE’s server products and expert knowledge, KDDI’s vision of “carbon neutral digital transformation” may be one step closer to reality.Learn More:《More information about GIGABYTE’s Rack Server》《Glossary: What is GPU?》《Glossary: What is Node?》     Going Green on the Edge with GIGABYTE’s Industry-Leading Rack Servers In Mitsubishi Heavy Industries’ Yokohama Hardtech Hub (YHH) in Yokohama, Japan, KDDI erected a 12ft shipping container measuring 3.66 meters in length, 2.44 meters in width, and 2.90 meters in height. Within, KDDI installed a micro-modular, rack-based immersion cooling system from GRC (Green Revolution Cooling) that offers 24 rack units (24U) of space for servers, and can cool up to 50kVA of heat. The coolant system is made by Mitsubishi Heavy Industries. The Japanese system integrator NEC Networks & System Integration Corp. (NESIC) also helped to set up KDDI’s innovative data center.Learn More:《See It Now! GIGABYTE Provides Single-Phase Immersion Cooling with GRC》《Glossary: What is Rack Unit?》Here is how single-phase immersion cooling keeps the data center’s temperature in check: during operation, heat generated by the servers is absorbed by the coolant, which is then piped to the CDU installed in an outward-facing closet partitioned into one end of the container. The heat exchanger in the CDU transfers the thermal energy from the coolant to a chilled water loop, which is kept cool by an external radiator. This is more energy-efficient than air or even direct-to-chip (D2C) liquid cooling. By KDDI’s estimates, when the data center is operating at its maximum capacity, the servers will use 50kVA of power, while the data center’s total power consumption will only be around 53.5kVA—therefore lowering the PUE below 1.07.《Glossary: What is Liquid Cooling?》 Unlike “two-phase immersion cooling” (which GIGABYTE also provides), “single-phase immersion cooling” cycles the coolant out to a CDU, which transfers the thermal energy to a chilled water loop. KDDI estimates that its prototype data center only consumes around 3.5kVA of energy for cooling, compared to 50kVA for computing.   In addition to being more energy-efficient, there are other advantages, as well. Because immersion cooling can support a higher density of servers, the entire system fits snugly within a 12ft container. Immersion cooling can help to protect the servers from the environment, whether it is high temperatures or salt and dusts in the air. Thanks to the modular design, a number of installation site restrictions can be eliminated; therefore, it is expected that the new data centers will be able to overcome the difficulties of space allocation and material delivery, making them more flexible, mobile, and space-saving.With the help of GIGABYTE and other suppliers, KDDI may achieve its goal of deploying micro data centers that are not only mobile and eco-friendly, but can also expedite edge computing across Japan. The adoption of immersion cooling is a valuable learning experience for KDDI’s IT experts, and it may become a role model that can be emulated by other ICT companies in Japan—because it represents the best of many important tech trends, such as carbon-neutral computing, edge computing, and small-scale data centers.“We are impressed that the GIGABYTE servers were able to adapt to our liquid-based cooling system so smoothly,” says Mr. Shintaro Kitayama, Assistant Manager and Server Infrastructure Engineer at KDDI. “GIGABYTE leveraged its past experience in the telco industry to overcome the challenges of immersion cooling, which is very beneficial to our project.”  GIGABYTE contributed to KDDI’s vision of a new class of container-type immersion cooling small data centers in two important ways:1. Suitable server products: the R282-Z93 and R182-Z91 are uniquely suited for the management and GPU computing nodes. This is due to the scalable, highly dense configurations of powerful CPUs and GPUs within easily manageable small form factors.《Glossary: What is Scalability?》2. Expert knowledge: the R282-Z93 and R182-Z91 are designed for air cooling, but GIGABYTE leveraged its years of experience with data center cooling solutions to modify and optimize the hardware and software for single-phase immersion cooling.     Server Products: Powerful Processors in Scalable, Highly Dense Small Form Factors The single R282-Z93 that GIGABYTE provided for KDDI contains dual AMD EPYC™ 7643 CPUs and triple NVIDIA® A100 Tensor Core GPUs in a 2U chassis, while the two R182-Z91’s contain AMD EPYC™ 7713 CPUs and NVIDIA® T4 Tensor Core GPUs in 1U chassis. Based on GIGABYTE’s years of experience providing enterprise server solutions for the telco sector, this combination of CPUs and GPUs (or more accurately, GPGPUs) in small form factors are eminently suitable for the management and GPU computing nodes in a micro data center.Learn More:《GIGABYTE Solutions: NVIDIA A100 Tensor Core GPU Offers Unprecedented Acceleration at Every Scale》《Glossary: What is GPGPU?》 GIGABYTE provided the R282-Z93 and R182-Z91 Rack Servers to KDDI, for use as the management and GPU computing nodes in its container-type immersion cooling small data center. The 3rd Gen AMD EPYC™ CPUs and NVIDIA® A100 and T4 GPUs contained within offer KDDI the processing power it needs to offer a variety of services for customers.   The synergy between CPUs and GPGPUs, which is sometimes referred to as heterogeneous computing, is crucial for a data center that supports the public network. Not only are there a large number of users connecting to the data center at all times, the sheer amount of data in graphical form—photos, videos, even data that may be used by computer vision—is staggering. While the 3rd Gen AMD EPYC™ processors already contain an impressive number of cores and threads, it is still necessary to boost CPU performance with the NVIDIA® A100 and T4 GPUs. PCIe Gen 4.0 is used to enable faster data transmission between the processors.Glossary:《What is Heterogeneous Computing?》《What is Computer Vision?》《What is Core?》《What is Thread?》《What is PCIe?》Mr. Kitayama explains, “We thought it necessary to supplement the CPUs with powerful GPUs to provide enough computing power on the data center and the edge site in a highly aggregated state, which will allow us to offer a rich variety of services for our customers. Immersion cooling opens the door to the most advanced GPUs, such as the A100, without encountering limitations in power consumption or cooling.”The form factors of the R282-Z93 and R182-Z91, which can support a highly dense and scalable configuration of CPUs and GPUs, is another reason why the GIGABYTE servers are suitable for micro data centers. Immersion cooling has made it possible for the telco giant to experiment with high-density computing, which refers to the aggregation of a lot of computing resources within limited space. KDDI is able to reduce the data center’s physical footprint without giving up an iota of computing power, all the while retaining the option to scale out if necessary. The small size of the data center also makes it more convenient to load onto the back of a truck, where it can be carted around Japan to the locations that need it the most.《Glossary: What is Scale Out?》     Expert Knowledge: Optimizing the Servers for Immersion Cooling Before the R282-Z93 and R182-Z91’s were shipped to Yokohama, the GIGABYTE team in Taiwan dedicated weeks of time to modifying and optimizing the servers for immersion cooling. Air-based cooling components, such as the fans, heat sinks, and air shrouds were removed. The servers’ temperature sensors, which were calibrated for the lower ambient temperatures of an air-cooled data center, were also replaced. GIGABYTE was happy to draw upon its experience with data center cooling solutions to help KDDI achieve the vision of a containerized small data center that utilizes immersion cooling.After the servers arrived in Japan, KDDI conducted a round of operation tests, performance tests, and heat resistance tests to evaluate the cooling effectiveness and structural integrity of the servers. This was done to see if the servers could maintain peak performance without running into issues. The configurable TDP (thermal design power) of the CPUs could go as high as 240W—this is why, in an air-cooled data center, the ambient temperature is usually limited to 30°C or 35°C. However, because immersion cooling is much more efficient at dissipating heat, a much higher ambient temperature may be acceptable. KDDI tested the whole set-up extensively to make sure the micro data center would be ready for field deployment.《Glossary: What is TDP?》 Before shipping the servers to Japan, GIGABYTE optimized the R282-Z93 and R182-Z91 for immersion cooling. GIGABYTE’s wealth of experience in the field of data center cooling, coupled with its in-depth understanding of the telco industry, enables it to help KDDI achieve the vision of micro data centers that utilize immersion cooling.   In the course of testing, KDDI spotted other details to consider when adopting immersion cooling. For example, KDDI discovered that ink on labels may smudge when it comes in contact with the oil-based coolant, and this may form a pollutant that may be detrimental to the cooling system. This example proves that there are many things to watch out for when optimizing the servers for immersion cooling. Fortunately, GIGABYTE was glad to share its treasure trove of expert knowledge, as well as its extensive line of server products which are compatible with air, liquid, and immersion cooling, to help KDDI achieve its vision of the container-type immersion cooling small data center.Learn More:《Waseda University Decodes the Storm with GIGABYTE’s Computing Cluster》《Using GIGABYTE, NIPA Cloud Soars Among CSP Giants in Thailand》     The Future of Data Centers: Mobile, Eco-Friendly, Immersion Cooling KDDI Corporation has embarked on a bold venture that may revolutionize the way we design and build data centers. The outlook is optimistic. In April of 2022, KDDI tested the immersion cooling solution in the KDDI Oyama Technical Center (KDDI Oyama TC) in the Tochigi Prefecture, about 90 kilometers north of Tokyo. The system was tested against the “High Availability” standards of Tier 4 data centers, as outlined by ANSI/TIA-942-A. It was also tested to see if immersion cooling may contribute to overcoming the problems of space limitations and heat dissipation and evaluate the operability for construction and maintenance. The hope was that the container-type immersion cooling small data center may eventually see widespread deployment across Japan.Learn More:《Glossary: What is High Availability?》《Glossary: What is 5G?》《Free Downloadable Tech Guide: How to Build Your Data Center with GIGABYTE?》“We are grateful for GIGABYTE’s active participation as a server manufacturer in our new cooling technology challenge, and for their provision of equipment and technical support,” says KDDI’s Mr. Masato Katou, Expert at Platform Technology Department, DX Solution Engineering Division, “As a manufacturer of IT equipment in the immersion field, KDDI hopes that GIGABYTE will lead the industry in the future with GIGABYTE’s advanced technological capabilities and know-how.”GIGABYTE Technology is pleased to receive KDDI’s kind words of commendation. GIGABYTE also anticipates the widespread adoption of data center cooling solutions that will help industry leaders reduce carbon emissions, achieve carbon neutrality, and move the world toward a greener and more sustainable “net zero” future. This is in line with GIGABYTE Technology’s long-term CSR, ESG, and SDGs-related efforts, as well as its vision: “Upgrade Your Life”, which is focused on utilizing innovative high tech to deliver better business results while building a smarter, better world of tomorrow.

상세보기

[GIGABYTE] CSR and ESG in Action: GIGABYTE Helps NCKU Train Award-Winning Supercomputing Team

2023.06.15

[GIGABYTE] CSR and ESG in Action: GIGABYTE Helps NCKU Train Award-Winning Supercomputing Team

GIGABYTE Technology is not only a leading brand in high-performance server solutions—it is also an active force for good when it comes to CSR and ESG activities. Case in point: in 2020, GIGABYTE provided four G482-Z50 servers to Taiwan’s Cheng Kung University. The servers were used to train a team of talented students, who went on to take first place in that year’s APAC HPC-AI Competition in Singapore. The parallel computing performance of the servers’ processors, the seamless connectivity between the servers, and the servers’ unrivalled reliability are the reasons why GIGABYTE servers are ideal for educating the next generation of supercomputing experts. GIGABYTE is happy to give back to society and contribute to human advancement through high tech solutions.     For veterans of the industry who are versed in server technologies, there is sometimes a tendency to get bogged down in specs and benchmark figures: these CPUs contain an x number of cores and threads more than the previous generation, this interconnect architecture transfers data at a rate of so-and-so many gigabytes per second, etc. These figures are important, but only because they serve a greater purpose: the advancement of human society through high tech solutions and superb processing power. As crucial as it is to develop the most advanced server products, it is also vital to share these resources with talented individuals, so that the best and brightest among us may have access to tools that match their potential.  Glossary:  《What is Core?》  《What is Thread?》GIGABYTE Technology, a world-renowned provider of server solutions with clients in such diverse sectors as cloud computing, data centers, edge computing, finance, healthcare, manufacturing, and more, is celebrated for its commitment to CSR (corporate social responsibility), ESG (Environmental, Social, and Corporate Governance) objectives, and Sustainable Development Goals (SDGs). Since 2001, the GIGABYTE Education Foundation has hosted the annual “GIGABYTE Great Design” competition, which helps students create their own inventions and compete in international events, such as the iF Design Award. In regards to sustainability, as far back as 2009, GIGABYTE made a commitment to reduce carbon emissions by 50% by 2030. GIGABYTE is on track to meet this goal by 2025—five years ahead of schedule. GIGABYTE has been recognized by Forbes Magazine as one of the “World's Best Employers”. GIGABYTE was also honored as one of Taiwan’s top 25 brands in the “Best Taiwan Global Brands” survey.Learn More:  《Glossary: What is Cloud Computing?》  《Glossary: What is Data Center?》 《Glossary: What is Edge Computing?》 《Press Release: GIGABYTE Honored in “Best Taiwan Global Brands” Survey》What happens when GIGABYTE expresses its commitment to CSR and ESG through its groundbreaking server solutions? We present for your perusal: the story of how Taiwan’s Cheng Kung University (NCKU) won the championship in the APAC HPC-AI Competition, with help from GIGABYTE’s G482-Z50 GPU Servers.Learn More:  《Glossary: What is HPC?》  《Glossary: What is AI?》 《More information about GIGABYTE’s GPU Server》     AI, Climate Change, COVID-Related Research: the Focus of APAC HPC-AI Organized by the HPC-AI Advisory Council (HPCAIAC) and National Supercomputing Centre (NSCC) Singapore, and sponsored by such industry heavyweights as Nvidia Corporation, the APAC HPC-AI Competition is an annual contest designed to bridge the gap between the cultivation of talent in universities and research centers, and the application of AI and HPC in the real world. By pitting the boundless potential of young and eager minds against supercomputing tasks with real-life implications, the contest aims to help students prepare for the ever-growing demand for higher computation performance, as well as the increasing complexity of research problems.“High performance computing and artificial Intelligence are the most essential tools fueling the advancement of science,” says Gilad Shainer, Chairman of the HPCAIAC. “[Our] mission is to foster the next generation of supercomputing leadership, and to help develop the next generation of platforms and knowledge.”Cheng Kung University has participated in the APAC HPC-AI Competition since its conception. In 2020, the Department of Engineering Science at NCKU assembled two teams of around six students each to participate in the contest. The students were mentored by Chair Professor Chi-Chuan Hwang; they were also coached by Research Assistant Chao-Chin Li, whom the students called Michael. Under the guidance of Chair Professor Chi-Chuan Hwang (center) and Research Assistant Michael Li (left), and with the help of four GIGABYTE G482-Z50 GPU Servers, the supercomputing team representing Taiwan’s Cheng Kung University took first place in the 2020 APAC HPC-AI Competition.   As part of the contest in 2020, the HPCAIAC and NSCC assigned four challenging tasks. The first task was centered on AI applications: contestants were asked to surpass international NLP (natural language processing) records by using BERT, a machine learning technique developed by Google. The second task was focused on HPC: participants must attempt to break climate simulation world records by using NEMO, a modelling framework for research activities and forecasting services in ocean and climate sciences. The third and fourth tasks were geared towards bio-science simulations and innovations as part of the global effort to combat COVID-19. Students were asked to use NAMD, a parallel molecular dynamics code, to recreate the molecular structure of a common virus in the shortest time possible. They were also tasked with proposing an HPC or AI application that could potentially be used against COVID-19.Learn More:《Glossary: What is Natural Language Processing?》《Glossary: What is Machine Learning?》《Spain’s IFISC Tackles COVID-19 and Climate Change with GIGABYTE Servers》Taking into account GIGABYTE’s dedication to CSR and ESG objectives, and GIGABYTE’s position as an industry-leading server solutions brand, it should come as no surprise that GIGABYTE was glad to support the NCKU’s supercomputing team. Four G482-Z50 GPU Servers were provided by GIGABYTE. With these top-tier server products, students were able to practice using the most advanced supercomputing techniques to tackle some of the world’s most critical issues.“GIGABYTE provided us with server products on par with any server brand you could care to name, because they believed in our effort to nurture the next generation of HPC and AI experts,” says Michael Li, who worked closely with the students and developed a fraternal bond with many of them. “Winning awards in an international competition is about more than just the university’s prestige or our students’ academic careers. It is about cultivating supercomputing geniuses who can give back to society and contribute to the betterment of all humankind.”     The Benefits of GIGABYTE Servers: Parallel Computing, Connectivity, Reliability The servers were delivered to the NCKU’s campus in Tainan, and set up in a lab. The supercomputing team connected them to each other to form a computing cluster—an interconnected network of servers utilizing distributed computing technology to deliver performance on the scale of supercomputers. The software tools designated by the HPCAIAC and NSCC were installed on the cluster. Then, under the patient tutorage of Professor Hwang and Coach Li, these plucky university students got to work trying to shatter world records.Learn More:《Glossary: What is Computing Cluster?》《Glossary: What is Distributed Computing?》《Tech Guide: What is Cluster Computing and How Can GIGABYTE Help?》The students spent every moment of free time they had outside of class, including evenings, weekends, and holidays, to practice running the supercomputing programs on the GIGABYTE servers. First, the students would pore over theoretical computer science studies to look for the latest hypothetical methods that may help them achieve a breakthrough. They would then sound out the professor and the coach on their proposal. If they seemed to be on the right track, they would begin tweaking parameters in the software and running tests on the servers to see if their theory panned out. Sometimes they would achieve a quantum leap forward, and Coach Li would take them out for a night on the town to celebrate. Sometimes an experiment would end in abject failure, and it would be back to the drawing board.In the weeks and months leading up to the big day of the competition, the students achieved breakthroughs that would not only propel them past existing records, but also outmatch all the other top universities competing in the contest. Throughout the entire grueling process, the GIGABYTE servers were the students’ steadfast, unwavering companions, always ready to help test the latest configuration of software parameters. Long before the students emerged as world champions in the 2020 APAC HPC-AI Competition, they achieved their greatest triumphs on the four GIGABYTE G482-Z50 servers in the computer lab on the NCKU campus.The supercomputing team summarized that the GIGABYTE servers offered them three key benefits, which ultimately helped the students break world records and take home the championship:1. Incredible parallel computing performance, delivered through a combination of advanced CPUs and GPUs.2. Seamless connectivity between the servers, thanks to communications standards that offer high throughput and very low latency.3. Unrivalled reliability thanks to high availability features, which allowed the servers to operate continuously during the months leading up to the contest.Glossary:《What is Parallel Computing?》《What is GPU?》《What is High Availability?》 GIGABYTE helped the NCKU supercomputing team by providing them with four G482-Z50 GPU Servers. The incredible performance delivered by a combination of CPUs and GPGPUs, the seamless connectivity between the servers, and the inbuilt high availability features—all these qualities were of great assistance to the students. Benefit #1: Advanced CPUs and GPGPUs Offering Parallel Processing Capabilities In the quest for world-first scientific breakthroughs, using the right tools for the job can make all the difference. Some computing workloads are better suited for the complex, polymathic capabilities of the central processing unit; others run much more quickly and efficiently on general purpose graphics processing units (GPGPUs). The organizers of the APAC HPC-AI Competition realized this, and so they stipulated that certain problems must be solved with certain types of processing units. The ideal server solution, then, would need to support both advanced CPUs and GPGPU accelerators; it should also be able to run the same task on multiple processors to achieve parallel computing.《Glossary: What is GPGPU?》GIGABYTE servers are designed to do just that. They support the most advanced CPU options, such as Intel® Xeon® Scalable, AMD EPYC™, and the Ampere® Altra® series, which is based on the ARM architecture. In the case of the G482-Z50, there is also support for a highly dense configuration of up to ten PCIe Gen 3.0 GPGPU cards. Each of the server’s dual CPUs can be connected to five GPGPU cards through a PCIe switch, which minimizes the communication latency between the GPGPUs. The supercomputing team at NCKU outfitted their GIGABYTE servers with NVIDIA accelerators. The G482-Z50 is also fully compatible with other options, such as the AMD Instinct™ MI100.Learn More:《GIGABYTE’s Complete List of Intel® Xeon® Scalable Servers》《GIGABYTE’s Complete List of AMD EPYC™ Servers》《GIGABYTE’s Complete List of Ampere® Altra® Servers》《Glossary: What is PCIe?》     Benefit #2: High Throughput, Low Latency Connectivity within the Cluster As is common in HPC applications, the four servers were connected to each other to form a cluster. To link the servers, the NCKU team used 100 Gbps InfiniBand (IB) switches, which are noted for their high throughput and low latency qualities. GIGABYTE servers are also compatible with other networking standard, such as Ethernet, which supports UTP and fiber optic cables.The students used OpenZFS for file storage and Open MPI for communication. Since both of them are open-source, the NCKU team installed the Linux operating system on the GIGABYTE servers. OpenZFS functions like an advanced version of Network-Attached Storage (NAS), in that the files are distributed among all the servers in the cluster, rather than on a single server. This drastically improves the read/write speeds when storing or retrieving data. Open MPI was chosen because it allowed the students to access the entire cluster through any one of the four servers; it automatically distributed tasks to available computing resources to achieve optimal performance. The G482-Z50 is compatible with Red Hat Enterprise Linux, SUSE Linux Enterprise Server, and a wide range of other operating systems.Learn More:《Glossary: What is NAS?》《Setting the Record Straight: What is HPC? A Tech Guide by GIGABYTE》     Benefit #3: Continuous, Reliable Operations Thanks to High Availability Features Throughout the many months before the competition, the team worked tirelessly to crack the supercomputing puzzles. They ran batches of tests on the GIGABYTE servers, working days, nights, weekdays, weekends—which meant the servers got no rest at all. Thankfully, this did not constitute a problem, because GIGABYTE’s server solutions come with a treasure trove of high availability (HA) features.First and foremost is Smart Crises Management and Protection (SCMP), a GIGABYTE-patented feature that is deployed in servers without a fully redundant power supply unit (PSU) design. In the event of a faulty PSU or overheating, SCMP forces the CPU to enter ultra-low power mode. This reduces the power load, which protects the system from unexpected shutdowns, while avoiding component damage or data loss.Smart Ride Through (SmaRT) is another feature that is implemented on all GIGABYTE servers. In the event of a power outage, the system will manage its power consumption (known as throttling) while reducing the power load. Capacitors within the PSU can provide power for ten to twenty milliseconds, which is enough time for a backup power source to come online.Last but not least, the dual ROM architecture guarantees that, in the unfortunate event that the ROM storing the BIOS and BMC fails to boot, the system will reboot with the backup BIOS and/or BMC. Once the primary BMC is updated, the ROM of the backup version will automatically synchronize. The BIOS can be updated based on the firmware version.     The Result: Shattering Records and Claiming the Crown in the Contest On the big day of the competition—October 15th, 2020—everything that the students learned using the GIGABYTE servers was put to the test. In the end, hard work paid off. NCKU came in first, beating other prestigious research universities in the Asia-Pacific region, such as the University of New South Wales (UNSW) in Australia, Nanjing University (NJU) in China, and Singapore’s own Nanyang Technological University (NTU). Some of the NCKU team’s results even shattered world records at the time. For example, in the first part of the competition, which asked contestants to break NLP records using BERT, NCKU achieved an accuracy of 87.7%. This was higher than what had been achieved by the University of California, San Diego (87.2%) and Stanford University (87.16%).“Our collective futures greatly depend on nurturing every student’s potential, especially in times of adversity such as these. The commitment and resilience demonstrated by this year’s competing teams reminds us all that we need to meet challenges head-on and be flexible in adapting to the new normal,” says Associate Professor Tan Tin Wee, Chief Executive at NSCC.NCKU would go on to win big again in the 2021 APAC HPC-AI Competition. Professor Hwang says, “We would like to thank the College of Engineering and the Department of Engineering Science at NCKU, as well as GIGABYTE for their support.”GIGABYTE Technology is glad to have provided the servers that helped to educate the next generation of HPC and AI experts in Taiwan. These world-class servers have not only proven capable of tackling problems related to some of the 21st century’s most pressing issues—namely artificial intelligence, climate change, and COVID-19—they have also shown that as long as we are willing to invest in the younger generation, humanity has a chance to triumph against adversity. This is in keeping with GIGABYTE Technology’s unwavering commitment to its CSR and ESG goals, as well as the GIGABYTE motto: “Upgrade Your Life”, which is a sincere belief that high tech solutions can help us build a better world.

상세보기