맨위로가기 타임라인 바로가기

ROCm

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
타임라인 바로가기

1. 개요

ROCm(Radeon Open Compute)은 AMD가 개발한 개방형 소프트웨어 스택으로, GPU를 활용한 컴퓨팅을 지원한다. 2016년 볼츠만 이니셔티브를 통해 출시되었으며, 이기종 시스템 아키텍처(HSA)를 기반으로 개발되었다. HIP(Heterogeneous-Compute Interface for Portability)를 통해 CUDA 코드를 ROCm 환경에서 사용할 수 있도록 지원하며, AMD 인스팅트 가속기 및 Radeon Pro GPU 시리즈를 주로 지원한다. ROCm은 머신 러닝, 슈퍼컴퓨팅 등 다양한 분야에서 활용되며, PyTorch, TensorFlow, 엘 캐피탄, 프론티어 등의 소프트웨어와 슈퍼컴퓨터에서 사용된다. ROCm은 엔비디아의 CUDA, 인텔의 OneAPI와 경쟁하며, 개방형 소스라는 특징을 갖는다.

더 읽어볼만한 페이지

  • 이기종 컴퓨팅 - 이기종 시스템 아키텍처
    이기종 시스템 아키텍처(HSA)는 CPU, GPU, DSP 등 다양한 처리 장치를 효율적으로 활용하기 위해 컴퓨팅 장치를 위한 통합 가상 주소 공간을 제공하여 GPU가 CPU와 메모리를 공유하며 데이터를 교환하도록 함으로써 이기종 컴퓨팅 환경의 성능과 전력 효율성을 향상시키는 시스템 아키텍처이다.
  • 이기종 컴퓨팅 - 코프로세서
    코프로세서는 주 프로세서를 보조하여 특정 작업의 효율을 높이는 특수 목적 프로세서로, 주 프로세서의 제어하에 제한된 기능을 수행하며, 부동 소수점 연산, 그래픽 처리, 인공신경망 연산 등 다양한 종류가 있다.
  • GPGPU 라이브러리 - CUDA
    CUDA는 엔비디아에서 개발한 GPU 기반 병렬 컴퓨팅 플랫폼으로, 연산 집약적인 작업을 가속화하며 다양한 프로그래밍 언어를 지원하고 3D 그래픽, 동영상 변환 등 여러 분야에 활용된다.
  • GPGPU 라이브러리 - OpenCL
    OpenCL은 다양한 계산 자원을 활용하여 병렬 컴퓨팅을 가능하게 하는 프레임워크로, OpenCL C/C++ 언어를 사용하여 스트림 프로세싱 커널을 작성하며, 크로노스 그룹에서 관리하는 로열티 프리 오픈 표준이다.
  • AMD 소프트웨어 - GPUOpen
    GPUOpen은 AMD가 개발한 오픈 소스 미들웨어 스택으로, 게임, CGI, 전문 컴퓨팅 분야 개발자들에게 다양한 도구와 라이브러리를 제공하며 소프트웨어 이식성을 향상시키는 것을 목표로 한다.
  • AMD 소프트웨어 - AMD 라데온 소프트웨어
    AMD 라데온 소프트웨어는 AMD 라데온 그래픽 카드 및 APU를 위한 드라이버 및 유틸리티 모음으로, 디스플레이 설정, 비디오/오디오 처리, 녹화/스트리밍 기능 등을 제공하여 게임 성능 향상 및 사용자 경험 개선을 목표로 하며, AMD Software Adrenalin Edition으로 제공된다.
ROCm - [IT 관련 정보]에 관한 문서
ROCm 개요
ROCm 로고
ROCm 로고
개발사AMD
장르GPGPU 라이브러리 및 API
출시일2016년 11월 14일
최신 릴리스 버전6.3.0
최신 릴리스 날짜2024년 12월 04일
저장소메타-저장소
운영 체제Linux, Windows
플랫폼지원되는 GPU
프로그래밍 언어C, C++, Python, Fortran, Julia
미들웨어HIP
엔진AMDgpu 커널 드라이버, HIPCC, LLVM 기반 컴파일러
크기2 GiB 미만
대체Close to metal, 스트림, HSA
라이선스MIT 라이선스
웹사이트ROCm 공식 웹사이트

2. 배경

ATI/AMD의 첫 번째 GPGPU 소프트웨어 스택은 Close to Metal이었으며, 이는 스트림이 되었다.

ROCm은 2016년경에 볼츠만 이니셔티브와 함께 출시되었다.[6] ROCm 스택은 이전 AMD GPU 스택을 기반으로 구축되었으며, 일부 도구는 GPUOpen에서, 다른 도구는 이기종 시스템 아키텍처(HSA)에서 유래되었다.

2. 1. 이기종 시스템 아키텍처 (HSA)

ROCm은 (HSA) 개념을 기반으로 개발되었다.[50][7] 초기에는 HSAIL[50][7]을 사용하여 GPU, FPGA 등 다양한 하드웨어에 대한 이식성을 확보하고자 했다.[50][7] HSAIL[50][7]은 하드웨어 독립적인 중간 표현을 생성하여 적절한 종료자를 통해 최종 하드웨어에 JIT 컴파일하는 방식이었다.[50][7]

하지만 현재 이 방식은 ROCm에서 사용되지 않으며,[52][8] LLVM과 업스트림된 AMDGPU 백엔드[51][8]를 사용하여 GPU 코드만 빌드한다.[52][8] LLVM MLIR을 사용한 향상된 모듈성에 대한 연구는 여전히 진행 중이다.[52][9]

2. 2. 볼츠만 이니셔티브

ROCm은 2016년경에 볼츠만 이니셔티브(Boltzmann Initiative)를 통해 출시되었다.[48][49] ROCm 스택은 이전 AMD GPU 스택을 기반으로 구축되며 일부 도구는 GPUOpen으로 거슬러 올라가고 다른 도구는 HSA(이기종 시스템 아키텍처)로 거슬러 올라간다.

3. 프로그래밍

ROCm은 커널 드라이버부터 최종 사용자 애플리케이션까지 다양한 수준의 프로그래밍을 지원한다.[53][54][55][10][11][12] AMD는 학습 포털을 통해 AMD GCN 하드웨어 및 ROCm 프로그래밍에 대한 소개 비디오를 제공한다.[53][54][55][10][11][12] ROCm/HIP 프로그래밍에 대한 자세한 기술 정보는 레딧(Reddit) 등 온라인 커뮤니티에서 찾을 수 있다.[56][13]

==== HIP (Heterogeneous-Compute Interface for Portability) ====

HIP (Heterogeneous-Compute Interface for Portability)는 CUDA 코드를 ROCm 환경에서 실행할 수 있도록 변환해주는 도구로, CUDA 기반 애플리케이션의 ROCm 이전을 돕는다.[56] HIPIFY는 CUDA 코드를 HIP 코드로 자동 변환해주는 도구이다.[56] HIPIFY는 소스-투-소스 컴파일 도구로, CUDA를 HIP로, 또는 그 반대로 번역하며, Clang 기반 도구나 Perl 스크립트와 유사한 도구를 사용한다. AMD의 GPU 구현은 HIPAMD라고 불린다. 또한 데모 목적으로 주로 사용되는 CPU 구현도 있다.

3. 1. HIP (Heterogeneous-Compute Interface for Portability)

HIP (Heterogeneous-Compute Interface for Portability)는 CUDA 코드를 ROCm 환경에서 실행할 수 있도록 변환해주는 도구로, CUDA 기반 애플리케이션의 ROCm 이전을 돕는다.[56] HIPIFY는 CUDA 코드를 HIP 코드로 자동 변환해주는 도구이다.[56] HIPIFY는 소스-투-소스 컴파일 도구로, CUDA를 HIP로, 또는 그 반대로 번역하며, Clang 기반 도구나 Perl 스크립트와 유사한 도구를 사용한다. AMD의 GPU 구현은 HIPAMD라고 불린다. 또한 데모 목적으로 주로 사용되는 CPU 구현도 있다.

4. 하드웨어 지원

ROCm은 주로 AMD 인스팅트 가속기 및 Radeon Pro GPU 시리즈와 같은 전문가용 GPU를 대상으로 한다.[14] 비공식적으로는 RDNA 2 소비자용 GPU와 Vega 제품군을 지원한다.

가속 처리 장치(APU)는 공식적으로 지원되지는 않지만, ROCm을 기능적으로 구현하는 데는 어려움이 따른다.[15]

AMD 인스팅트 가속기는 ROCm의 최상위 제품이며, [https://en.wiktionary.org/wiki/prosumer#Etymology_2 프로슈머] Radeon Pro GPU 시리즈와 함께 거의 완벽한 지원을 받는다.

2022년 1월 현재 비교적 동등한 지원을 받는 유일한 소비자용 GPU는 Radeon VII (GCN 5 - Vega)이다.

GPU 시리즈 이름Southern
Islands
Sea
Islands
Volcanic
Islands
Arctic
Islands/Polaris
VegaNavi 1XNavi 2X
출시일2012년 1월2013년 9월2015년 6월2016년 6월2017년 6월2019년 7월2020년 11월
마케팅 이름라데온 HD 7000라데온 Rx 200라데온 Rx 300라데온 RX 400/500라데온 RX Vega/라데온 VII(7 nm)라데온 RX 5000라데온 RX 6000
AMD 지원지원안함현재
명령어 집합GCN 명령어 집합RDNA 명령어 집합
마이크로아키텍처GCN 1세대GCN 2세대GCN 3세대GCN 4세대GCN 5세대RDNARDNA 2
유형통합 셰이더 모델
ROCm[16]지원안함지원[17]지원지원[18]지원
OpenCL1.2 (리눅스: Mesa 3D에서 1.1 (이미지 지원 없음))2.0 (Win7+의 Adrenalin 드라이버)
(리눅스: Mesa 3D에서 1.1 (이미지 지원 없음), AMD 드라이버 또는 AMD ROCm에서 2.0)
2.02.1[19]
Vulkan1.0
(Win 7+ 또는 Mesa 17+)
1.2 (Adrenalin 20.1, 리눅스 Mesa 3D 20.0)
셰이더 모델5.15.1
6.3
6.46.5
OpenGL4.6 (리눅스: 4.6 (Mesa 3D 20.0))
Direct3D11 (11_1)
12 (11_1)
11 (12_0)
12 (12_0)
11 (12_1)
12 (12_1)
11 (12_1)
12 (12_2)
/drm/amdgpu실험적[20]지원


4. 1. 지원 GPU

AMD 인스팅트 가속기는 ROCm의 최상위 제품이며, [https://en.wiktionary.org/wiki/prosumer#Etymology_2 프로슈머] Radeon Pro GPU 시리즈와 함께 거의 완벽한 지원을 받는다.

2022년 1월 현재 비교적 동등한 지원을 받는 유일한 소비자용 GPU는 Radeon VII (GCN 5 - Vega)이다.

GPU 시리즈 이름Southern
Islands
Sea
Islands
Volcanic
Islands
Arctic
Islands/Polaris
VegaNavi 1XNavi 2X
출시일2012년 1월2013년 9월2015년 6월2016년 6월2017년 6월2019년 7월2020년 11월
마케팅 이름라데온 HD 7000라데온 Rx 200라데온 Rx 300라데온 RX 400/500라데온 RX Vega/라데온 VII(7 nm)라데온 RX 5000라데온 RX 6000
AMD 지원지원안함현재
명령어 집합GCN 명령어 집합RDNA 명령어 집합
마이크로아키텍처GCN 1세대GCN 2세대GCN 3세대GCN 4세대GCN 5세대RDNARDNA 2
유형통합 셰이더 모델
ROCm[16]지원안함지원[17]지원지원[18]지원
OpenCL1.2 (리눅스: Mesa 3D에서 1.1 (이미지 지원 없음))2.0 (Win7+의 Adrenalin 드라이버)
(리눅스: Mesa 3D에서 1.1 (이미지 지원 없음), AMD 드라이버 또는 AMD ROCm에서 2.0)
2.02.1[19]
Vulkan1.0
(Win 7+ 또는 Mesa 17+)
1.2 (Adrenalin 20.1, 리눅스 Mesa 3D 20.0)
셰이더 모델5.15.1
6.3
6.46.5
OpenGL4.6 (리눅스: 4.6 (Mesa 3D 20.0))
Direct3D11 (11_1)
12 (11_1)
11 (12_0)
12 (12_0)
11 (12_1)
12 (12_1)
11 (12_1)
12 (12_2)
/drm/amdgpu실험적[20]지원


5. 소프트웨어 생태계

5. 1. 학습 자료

AMD ROCm 제품 관리자인 테리 딤(Terry Deem)이 ROCm 스택에 대한 설명을 제공했다.[21] ROCm 스택은 커널 드라이버부터 최종 사용자 애플리케이션까지 다양하다. AMD는 학습 포털을 통해 AMD GCN 하드웨어[53] 및 ROCm 프로그래밍[54]에 대한 소개 비디오를 제공한다.[55] 스택 및 ROCm/HIP 프로그래밍에 대한 기술 소개는 레딧(Reddit)에서 찾을 수 있다.[56]

5. 2. 써드파티 통합

ROCm 스택의 주요 사용자는 머신 러닝 및 고성능 컴퓨팅/GPGPU 애플리케이션이다.[56]
머신 러닝다양한 딥 러닝 프레임워크는 ROCm 백엔드를 가지고 있다:[22]

  • PyTorch
  • TensorFlow
  • ONNX
  • MXNet
  • CuPy[23]
  • [https://github.com/rocmsoftwareplatform/miopen MIOpen]
  • Caffe
  • [https://github.com/google/iree Iree] (LLVM Multi-Level Intermediate Representation (MLIR)을 사용)
  • [https://github.com/ggerganov/llama.cpp/pull/1459 llama.cpp]

슈퍼컴퓨팅ROCm은 TOP500에서 상당한 인기를 얻고 있다.[24]

ROCm은 엑사스케일 슈퍼컴퓨터인 엘 캐피탄[25][26]프론티어에 사용된다.

일부 관련 소프트웨어는 https://www.amd.com/fr/technologies/infinity-hub AMD 인피니티 허브에서 찾을 수 있다.
기타3.0 버전부터 블렌더는 HIP 컴퓨트 커널을 렌더러 사이클에 사용할 수 있습니다.[27]

5. 2. 1. 머신 러닝

다양한 딥 러닝 프레임워크는 ROCm 백엔드를 가지고 있다:[22]

  • PyTorch
  • TensorFlow
  • ONNX
  • MXNet
  • CuPy[23]
  • [https://github.com/rocmsoftwareplatform/miopen MIOpen]
  • Caffe
  • [https://github.com/google/iree Iree] (LLVM Multi-Level Intermediate Representation (MLIR)을 사용)
  • [https://github.com/ggerganov/llama.cpp/pull/1459 llama.cpp]

5. 2. 2. 슈퍼컴퓨팅

ROCm은 TOP500에서 상당한 인기를 얻고 있다.[24]

ROCm은 엑사스케일 슈퍼컴퓨터인 엘 캐피탄[25][26]프론티어에 사용된다.

일부 관련 소프트웨어는 https://www.amd.com/fr/technologies/infinity-hub AMD 인피니티 허브에서 찾을 수 있다.

5. 2. 3. 기타

3.0 버전부터 블렌더는 HIP 컴퓨트 커널을 렌더러 사이클에 사용할 수 있습니다.[27]

5. 3. 소프트웨어 배포

5. 3. 1. 공식

ROCm 소프트웨어는 여러 공개 GitHub 저장소에 분산되어 있다. 주요 공개 [https://github.com/ROCm/ROCm 메타 저장소] 내에는 각 공식 릴리스에 대한 XML 매니페스트가 있다. Git을 기반으로 구축된 버전 관리 도구인 git-repo를 사용하여 스택을 로컬로 동기화하는 것이 권장된다.[29]

AMD는 ROCm용 컨테이너화된 애플리케이션을 배포하기 시작했으며, 특히 [https://www.amd.com/en/technologies/infinity-hub AMD 인피니티 허브]에서 수집된 과학 연구 애플리케이션이 대표적이다.[30]

AMD는 다양한 리눅스 배포판에 맞게 조정된 자체 패키지를 배포한다.

5. 3. 2. 써드파티

ROCm을 패키징하는 https://repology.org/projects/r/?search=rocm 타사 생태계가 증가하고 있다.

아치 리눅스(Arch Linux)[31], 젠투(Gentoo)[32], 데비안(Debian), 페도라(Fedora)[33], GNU Guix, NixOS 등 여러 리눅스 배포판에서 ROCm을 공식적(네이티브)으로 패키징하고 있다.

Spack(spack) 패키지 관리자를 통해서도 ROCm을 설치할 수 있다.[34]

6. 구성 요소

ROCm은 커널 공간 구성 요소(ROCk)와 사용자 공간 모듈로 구성된다.[35] 스택에는 약 100개의 구성 요소가 있다.[35]

로우 레벨 라이브러리는 대문자 ROC와 소문자를 사용하여 ROCt와 같이 표기하고, 사용자 대상 라이브러리는 rocBLAS와 같이 표기한다.[35]

AMD는 LLVM 커뮤니티와 활발히 개발하고 있지만, 업스트리밍은 즉각적으로 이루어지지 않고 2022년 1월 현재 여전히 지연되고 있다.[36] AMD는 아직 업스트리밍되지 않은 부분, 즉 독점적으로 유지될 컴파일러 최적화, 디버그 지원, OpenMP 오프로딩 등을 위해 다양한 LLVM 포크를 공식적으로 패키징한다.[37][38][9]

6. 1. 로우 레벨

6. 1. 1. ROCk - 커널 드라이버

AMDgpu는 리눅스 커널 모듈이다.

6. 1. 2. ROCm - 장치 라이브러리

https://github.com/RadeonOpenCompute/ROCm-Device-Libs 지원 라이브러리는 LLVM 비트코드로 구현된다. 이 라이브러리는 수학 연산, 원자 연산, 런칭 매개변수 쿼리, 장치 내 커널 런칭 등을 위한 다양한 유틸리티와 함수를 제공한다.

6. 1. 3. ROCt - Thunk

썽크는 스택에 필요한 모든 사고와 큐잉을 담당한다.

6. 1. 4. ROCr - 런타임

https://github.com/radeonopencompute/rocr-runtime ROC 런타임은 호스트 애플리케이션에서 컴퓨팅 커널을 실행할 수 있도록 하는 API/라이브러리 집합이다. 이는 HSA 런타임 API에 대한 AMD의 구현이다.[39] 이는 ROC 공통 언어 런타임과는 다르다.

6. 1. 5. ROCm - CompilerSupport

https://github.com/radeonopencompute/rocm-compilersupport ROCm 코드 객체 관리자는 LLVM 중간 표현과 상호 작용을 담당한다.

6. 2. 미드 레벨

6. 2. 1. ROCclr 공통 언어 런타임

ROCclr 공통 언어 런타임은 리눅스 상의 ROCr과 윈도우 상의 PAL에 대한 호출을 조정하는 간접 계층이다.

과거에는 HSAIL 컴파일러와 같은 다양한 컴파일러 간의 라우팅을 수행할 수 있었다. 현재는 상위 간접 계층(HIP 및 OpenCL)에 흡수되고 있다.

6. 2. 2. OpenCL

ROCm은 설치 가능한 클라이언트 드라이버(ICD) 로더와 OpenCL 구현을 함께 제공한다.[40] 2022년 1월 현재, ROCm 4.5.2는 OpenCL 2.2를 제공하며, 경쟁사에 비해 뒤쳐져 있다.[41]

6. 2. 3. HIP

AMD의 GPU 구현은 HIPAMD라고 불린다. 또한 데모 목적으로 주로 사용되는 CPU 구현도 있다.

6. 2. 4. HIPCC

HIP는 Clang을 래핑하고 LLVM 오픈 AMDGPU 백엔드로 컴파일하거나, NVIDIA 컴파일러로 리디렉션하는 `HIPCC` 컴파일러를 빌드한다.[42]

6. 2. 5. HIPIFY

https://github.com/ROCm-Developer-Tools/HIPIFY HIPIFY는 소스-투-소스 컴파일 도구이다. CUDA를 HIP로, 또는 그 반대로 번역하며, Clang 기반 도구나 Perl 스크립트와 유사한 도구를 사용한다.

6. 2. 6. GPUFORT

https://github.com/rocmsoftwareplatform/gpufort GPUFORT는 HIPIFY와 마찬가지로, 소스 코드를 다른 제3세대 언어 소스로 컴파일하는 도구로, 사용자가 CUDA Fortran에서 HIP Fortran으로 마이그레이션할 수 있게 해준다. 이는 연구 프로젝트의 레퍼토리에도 포함되어 있다.[43]

6. 3. 하이 레벨

ROCm 상위 수준 라이브러리는 일반적으로 머신 러닝 프레임워크와 같은 응용 소프트웨어에서 직접 사용된다. 다음 라이브러리의 대부분은 GPU 아키텍처가 뛰어난 일반 행렬 곱셈(GEMM) 범주에 속한다.[44]

이러한 사용자 대상 라이브러리의 대부분은 이중 형태로 제공된다. 즉, Nvidia 하드웨어로 라우팅할 수 있는 간접 계층을 위한 ''hip''와 AMD 구현을 위한 ''roc''이다.[44]

==== rocBLAS / hipBLAS ====

BLAS를 위한 AMD 구현체인 rocBLAS와 hipBLAS는 고수준 라이브러리의 핵심이다.

텐사일 라이브러리를 내부적으로 사용한다.

==== rocSOLVER / hipSOLVER ====

이 두 라이브러리는 ROCm용 LAPACK 구현을 구성하며 rocBLAS와 밀접하게 연결되어 있다.

6. 3. 1. rocBLAS / hipBLAS

BLAS를 위한 AMD 구현체인 rocBLAS와 hipBLAS는 고수준 라이브러리의 핵심이다.

텐사일 라이브러리를 내부적으로 사용한다.

6. 3. 2. rocSOLVER / hipSOLVER

이 두 라이브러리는 ROCm용 LAPACK 구현을 구성하며 rocBLAS와 밀접하게 연결되어 있다.

6. 4. 유틸리티

ROCm 개발자 도구는 디버그, 추적기, 프로파일러, 시스템 관리 인터페이스, 유효성 검사 제품군, 클러스터 관리를 포함한다. GPUOpen 도구는 GPU 분석기, 메모리 시각화 도구 등을 제공한다. 외부 도구로는 TUI 개요를 제공하는 radeontop이 있다.

7. 경쟁 기술과의 비교

ROCm은 다른 GPU 컴퓨팅 스택인 엔비디아 CUDA 및 인텔 OneAPI와 경쟁한다.
Nvidia CUDAROCm은 엔비디아(Nvidia)의 CUDA와 경쟁하는 기술이다. CUDA는 폐쇄형 소스인 반면, ROCm은 개방형 소스이다. 폐쇄 소스 CUDA 상단에 구축된 오픈 소스 소프트웨어로는 [https://github.com/rapidsai RAPIDS]가 있다.

CUDA는 일반 소비자용 GPU에서 실행할 수 있는 반면, ROCm은 주로 AMD Instinct 및 AMD Radeon Pro와 같은 전문 하드웨어를 지원한다.

엔비디아는 C/C++ 중심의 프런트엔드와 병렬 스레드 실행(PTX) LLVM GPU 백엔드를 엔비디아 CUDA 컴파일러(NVCC)로 제공한다.
Intel OneAPIoneAPI는 ROCm과 마찬가지로 개방형 소스이며, 모든 관련 라이브러리는 깃허브(GitHub) 페이지에 게시되어 있다. Unified Acceleration Foundation (UXL)은 OneAPI 이니셔티브의 연속성을 위해 노력하는 새로운 기술 컨소시엄이다. UXL은 워킹 그룹 및 특별 관심 그룹(SIG)을 통해 새로운 개방형 표준 가속기 소프트웨어 생태계, 관련 개방형 표준 및 사양 프로젝트를 만드는 것을 목표로 한다. 이는 엔비디아(Nvidia)CUDA와 경쟁하기 위한 것이다. 이를 지원하는 주요 기업은 인텔(Intel), 구글(Google), ARM, 퀄컴(Qualcomm), 삼성(Samsung), 이매지네이션(Imagination), VMware이다.

7. 1. Nvidia CUDA

ROCm은 엔비디아(Nvidia)의 CUDA와 경쟁하는 기술이다. CUDA는 폐쇄형 소스인 반면, ROCm은 개방형 소스이다. 폐쇄 소스 CUDA 상단에 구축된 오픈 소스 소프트웨어로는 [https://github.com/rapidsai RAPIDS]가 있다.

CUDA는 일반 소비자용 GPU에서 실행할 수 있는 반면, ROCm은 주로 AMD Instinct 및 AMD Radeon Pro와 같은 전문 하드웨어를 지원한다.

엔비디아는 C/C++ 중심의 프런트엔드와 병렬 스레드 실행(PTX) LLVM GPU 백엔드를 엔비디아 CUDA 컴파일러(NVCC)로 제공한다.

7. 2. Intel OneAPI

oneAPI는 ROCm과 마찬가지로 개방형 소스이며, 모든 관련 라이브러리는 깃허브(GitHub) 페이지에 게시되어 있다. Unified Acceleration Foundation (UXL)은 OneAPI 이니셔티브의 연속성을 위해 노력하는 새로운 기술 컨소시엄이다. UXL은 워킹 그룹 및 특별 관심 그룹(SIG)을 통해 새로운 개방형 표준 가속기 소프트웨어 생태계, 관련 개방형 표준 및 사양 프로젝트를 만드는 것을 목표로 한다. 이는 엔비디아(Nvidia)CUDA와 경쟁하기 위한 것이다. 이를 지원하는 주요 기업은 인텔(Intel), 구글(Google), ARM, 퀄컴(Qualcomm), 삼성(Samsung), 이매지네이션(Imagination), VMware이다.

참조

[1] 웹사이트 ROCm 6.3.0 Release https://github.com/R[...] 2024-12-15
[2] 웹사이트 New HIP SDK helps democratize GPU Computing https://community.am[...] 2023-07-27
[3] 웹사이트 Question: What does ROCm stand for? · Issue #1628 · RadeonOpenCompute/ROCm https://github.com/R[...] 2022-01-18
[4] 웹사이트 Debian -- Details of package firmware-amd-graphics in buster https://packages.deb[...] 2022-01-18
[5] 웹사이트 AMD @ SC16: Radeon Open Compute Platform (ROCm) 1.3 Released, Boltzmann Comes to Fruition https://www.anandtec[...] 2022-01-19
[6] 웹사이트 AMD @ SC15: Boltzmann Initiative Announced - C++ and CUDA Compilers for AMD GPUs https://www.anandtec[...] 2022-01-19
[7] 웹사이트 HSA Programmer's Reference Manual: HSAIL Virtual ISA and Programming Model, Compiler Writer, and Object Format (BRIG) http://hsafoundation[...] HSA Foundation 2023-08-01
[8] 웹사이트 User Guide for AMDGPU Backend — LLVM 13 documentation https://llvm.org/doc[...] 2022-01-18
[9] 웹사이트 The LLVM Compiler Infrastructure https://github.com/R[...] 2022-01-19
[10] Youtube Introduction to AMD GPU Hardware https://www.youtube.[...] 2020-06-12
[11] 웹사이트 Fundamentals of HIP Programming https://web.archive.[...]
[12] 웹사이트 ROCm™ Learning Center https://developer.am[...]
[13] 웹사이트 AMD ROCm / HCC programming: Introduction http://www.reddit.co[...] 2018-12-26
[14] 웹사이트 AMD Documentation - Portal https://docs.amd.com[...]
[15] 웹사이트 Here's something you don't see every day: PyTorch running on top of ROCm on a 6800M (6700XT) laptop! Took a ton of minor config tweaks and a few patches but it actually functionally works. HUGE! https://www.reddit.c[...] 2021-12-10
[16] 웹사이트 ROCm Getting Started Guide v5.2.3 https://docs.amd.com[...]
[17] 웹사이트 HOW-TO: Stable Diffusion on an AMD GPU https://www.reddit.c[...] 2022-09-23
[18] 웹사이트 Any update on 5700 Xt support? https://github.com/R[...]
[19] 웹사이트 AMD Radeon RX 6800 XT Specs https://www.techpowe[...] 2021-01-01
[20] 웹사이트 The Best Features of the Linux 4.9 Kernel http://phoronix.com/[...] Phoronix 2016-12-07
[21] 웹사이트 ROCm presentation https://www.hpcwire.[...] 2022-01-18
[22] 웹사이트 AMD Introduces Its Deep-Learning Accelerator Instinct MI200 Series GPUs https://www.infoq.co[...] 2022-01-18
[23] 웹사이트 Using CuPy on AMD GPU (experimental) https://docs.cupy.de[...]
[24] 웹사이트 AMD Chips Away at Intel in World's Top 500 Supercomputers as GPU War Looms https://www.crn.com/[...] 2020-11-16
[25] 웹사이트 El Capitan Supercomputer Detailed: AMD CPUs & GPUs to Drive 2 Exaflops of Compute https://www.anandtec[...]
[26] 웹사이트 Livermore's el Capitan Supercomputer to Debut HPE 'Rabbit' Near Node Local Storage https://www.hpcwire.[...] 2021-02-18
[27] 웹사이트 Blender 3.0 takes support for AMD GPUs to the next level. Beta support available now! https://gpuopen.com/[...] 2022-01-18
[28] 웹사이트 AMD ROCm ⋅ JuliaGPU https://juliagpu.org[...]
[29] 웹사이트 ROCm Installation v4.3 — ROCm 4.5.0 documentation https://rocmdocs.amd[...] 2022-01-18
[30] 웹사이트 Running Scientific Applications on AMD Instinct Accelerators Just Got Easier https://www.hpcwire.[...] 2022-01-25
[31] 웹사이트 ROCm for Arch Linux https://github.com/r[...] 2022-01-18
[32] 웹사이트 Gentoo Linux Packages Up AMD ROCm, Makes Progress On RISC-V, LTO+PGO Python https://www.phoronix[...] 2022-01-18
[33] 웹사이트 Fedora & Debian Developers Look At Packaging ROCm For Easier Radeon GPU Computing Experience https://www.phoronix[...] 2022-01-18
[34] 웹사이트 The Spack Package Manager: Bringing Order to HPC Software Chaos https://github.com/s[...] 2015-11-15
[35] 메일링리스트 20211221 Packaging session notes and small update https://lists.debian[...] 2022-01-18
[36] 웹사이트 "[Debian official packaging] How is ROCm LLVM fork still needed? · Issue #2449 · ROCm-Developer-Tools/HIP" https://github.com/R[...]
[37] 웹사이트 Aomp - V 14.0-1 https://github.com/R[...] 2022-01-22
[38] 웹사이트 The LLVM Compiler Infrastructure https://github.com/R[...] 2022-01-10
[39] 웹사이트 HSA Runtime Programmer's Reference Manual http://hsafoundation[...] HSA Foundation 2018-05-02
[40] 웹사이트 Khronos OpenCL Registry - The Khronos Group Inc https://www.khronos.[...]
[41] 웹사이트 List of OpenCL Conformant Products - The Khronos Group Inc https://www.khronos.[...] 2022-02-03
[42] 웹사이트 Figure 3. HIPCC compilation process illustration. The clang compiler https://www.research[...]
[43] 웹사이트 AMD Publishes Open-Source "GPUFORT" as Newest Effort to Help Transition Away from CUDA https://www.phoronix[...]
[44] conference ROCm Library Support & Profiling Tools https://www.olcf.orn[...] AMD 2021-05
[45] 웹사이트 Exclusive: Behind the plot to break Nvidia's grip on AI by targeting software https://www.reuters.[...] 2024-04-05
[46] 웹인용 Question: What does ROCm stand for? · Issue #1628 · RadeonOpenCompute/ROCm https://github.com/R[...] 2022-01-18
[47] 웹인용 Debian -- Details of package firmware-amd-graphics in buster https://packages.deb[...] 2022-01-18
[48] 웹인용 AMD @ SC16: Radeon Open Compute Platform (ROCm) 1.3 Released, Boltzmann Comes to Fruition https://www.anandtec[...] 2022-01-19
[49] 웹인용 AMD @ SC15: Boltzmann Initiative Announced - C++ and CUDA Compilers for AMD GPUs https://www.anandtec[...] 2022-01-19
[50] 웹인용 HSA Programmer's Reference Manual: HSAIL Virtual ISA and Programming Model, Compiler Writer, and Object Format (BRIG) http://hsafoundation[...] HSA Foundation 2018-05-02
[51] 웹인용 User Guide for AMDGPU Backend — LLVM 13 documentation https://llvm.org/doc[...] 2022-01-18
[52] 웹인용 The LLVM Compiler Infrastructure https://github.com/R[...] 2022-01-19
[53] 웹인용 Introduction to AMD GPU Hardware https://www.youtube.[...]
[54] 웹인용 Fundamentals of HIP Programming https://developer.am[...]
[55] 웹인용 ROCm™ Learning Center https://developer.am[...]
[56] 웹인용 AMD ROCm / HCC programming: Introduction http://www.reddit.co[...] 2018-12-26

관련 사건 타임라인

( 최근 20개의 뉴스만 표기 됩니다. )



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com