CUDA (Compute Unified Device Architecture) adalah platform komputasi paralel yang dikembangkan oleh NVIDIA. CUDA memungkinkan pengembang untuk memanfaatkan kekuatan GPU untuk mempercepat aplikasi mereka. CUDNN (CUDA Deep Neural Network) adalah library yang dikembangkan oleh NVIDIA yang mempercepat proses training dan inferensi pada deep learning.
Penggunaan CUDA dan CUDNN sangat penting bagi pengembang aplikasi deep learning, karena dengan menggunakan CUDA dan CUDNN, proses training dan inferensi model deep learning akan lebih cepat dibandingkan dengan menggunakan CPU saja.
Instalasi CUDA
Sebeleum instalasi, kita pastikan dulu apakah GPU kita support CUDA, jalankan perintah berikut di terminal:
|
|
Jika sebelumnya sudah memiliki driver terinstall, kita perlu menghapus driver tersebut terlebih dahulu. Untuk menghapus driver NVIDIA, jalankan perintah berikut:
|
|
Pastikan sistem operasi kita sudah terupdate, jalankan perintah berikut:
|
|
Selanujtnya instal beberapa paket lain yang dibutuhkan:
|
|
Tambahkan repository CUDA ke dalam sistem operasi kita:
|
|
Untuk melihat rekomendasi driver yang cocok untuk GPU kita, jalankan perintah berikut:
|
|
Contoh output dari perintah diatas adalah berikut:
|
|
Pada contoh diatas, driver yang direkomendasikan adalah nvidia-driver-535
, maka kita akan menginstall driver tersebut:
|
|
Setelah perintah diatas selesai dijalankan, reboot sistem operasi kita:
|
|
Mengecek Instalasi Driver
Setelah sistem operasi kita reboot, kita perlu memastikan driver NVIDIA sudah terinstall dengan benar. Untuk mengeceknya, jalankan perintah berikut:
|
|
Jika driver NVIDIA sudah terinstall dengan benar, maka akan muncul output seperti berikut:
|
|
Instalasi CUDA Toolkit
Untuk instalasi CUDA Toolkit, kita perlu menyesuaikan dengan versi Tensorflow yang ingin digunakan.
Berikut contoh tabel versi CUDA Toolkit yang cocok dengan versi Tensorflow:
Version | Python version | Compiler | Build tools | cuDNN | CUDA |
---|---|---|---|---|---|
tensorflow-2.16.1 | 3.9-3.12 | Clang 17.0.6 | Bazel | 6.5.0 | 8.9 12.3 |
tensorflow-2.15.0 | 3.9-3.11 | Clang 16.0.0 | Bazel | 6.1.0 | 8.9 12.2 |
tensorflow-2.14.0 | 3.9-3.11 | Clang 16.0.0 | Bazel | 6.1.0 | 8.7 11.8 |
tensorflow-2.13.0 | 3.8-3.11 | Clang 16.0.0 | Bazel | 5.3.0 | 8.6 11.8 |
tensorflow-2.12.0 | 3.8-3.11 | GCC 9.3.1 | Bazel | 5.3.0 | 8.6 11.8 |
Lebih lengkapnya silakan lihat di dokumentasi tensorflow : https://www.tensorflow.org/install/source#gpu
Disini saya akan mencontohkan instalasi CUDA Toolkit versi 11.8, berikut langkah-langkahnya:
Buka halaman download CUDA Toolkit sesuai versi yang diinginkan di : https://developer.nvidia.com/cuda-toolkit-archive
Pilih versi CUDA Toolkit yang diinginkan, disini saya akan memilih versi 11.8, kemudian pilih OS, Architecture, dan distro yang sesuai dengan sistem operasi kita. Untuk contoh saya akan menggunakan installer Type
runfile (local)
. Kemudian download file tersebut.
Ikuti langkah yang diberikan oleh installer CUDA Toolkit, dan pastikan untuk menginstall driver NVIDIA yang disertakan dalam installer CUDA Toolkit. Contoh selanjutnya saya akan menjalankan perintah berikut untuk instalasi CUDA Toolkit:
|
|
Perintah diatas akan menjalankan installer CUDA Toolkit, ikuti langkah-langkah yang diberikan oleh installer.
Karena sebelumnya kita sudah melakukan instalasi driver yang dibutuhkan, pada instalasi CUDA dengan runfile
kita tidak perlu menginstall driver NVIDIA yang disertakan dalam installer CUDA Toolkit. Untuk itu kita perlu mengubah opsi instalasi driver NVIDIA dengan menghilangkan centang pada opsi tersebut.
Pada gambar diatas, kita perlu menghapus centang pada opsi Driver.
Lalu ikuti langkah instalasi hingga selesai.
Setelah instalasi selesai, kita perlu menambahkan environment variable CUDA ke dalam file .bashrc
jalankan perintah baris demi baris:
|
|
Perintah diatas akan menambahkan environment variable CUDA ke dalam file .bashrc
dan mengupdate environment variable.
sudo ldconfig
akan mengupdate library yang ada di sistem operasi kita.
Instalasi CUDNN
Buka halaman download CUDNN sesuai versi yang diinginkan di : https://developer.nvidia.com/rdp/cudnn-archive. Disini saya akan menginstall CUDNN versi 8.6.0, pilih versi yang diinginkan, kemudian download file tersebut.
Setelah file CUDNN selesai di download, ekstrak file tersebut:
|
|
Kemudian copy file yang diperlukan ke dalam direktori CUDA Toolkit:
|
|
Setelah itu, kita perlu menambahkan environment variable CUDNN ke dalam file .bashrc
:
|
|
Setelah itu, kita perlu mengecek apakah instalasi CUDA dan CUDNN sudah berhasil atau tidak, jalankan perintah berikut:
|
|
Jika instalasi CUDA dan CUDNN berhasil, maka akan muncul output seperti berikut:
|
|
Kesimpulan
Sampai saat ini kita sudah berhasil melakukan instalasi CUDA dan CUDNN. Dengan instalasi CUDA dan CUDNN, kita dapat memanfaatkan GPU untuk mempercepat proses training dan inferensi pada deep learning. Selanjutnya kita dapat menginstall library deep learning seperti Tensorflow, Pytorch, dan lainnya yang memanfaatkan CUDA dan CUDNN untuk mempercepat proses training dan inferensi model deep learning. Jika ada pertanyaan, silakan tulis di kolom komentar. Terima kasih.