Merevolusi AI Dengan Kekuatan Efisiensi Energi

Global, Ragam15 Dilihat

Para peneliti menunjukkan bagaimana konsumsi energi AI dapat dikurangi secara signifikan dengan model hemat energi, sehingga menghasilkan penghematan energi yang besar tanpa mempengaruhi kinerja secara signifikan. Mereka memberikan panduan untuk pengembangan AI yang memprioritaskan efisiensi energi. Kredit: SciTechDaily.com

Pengembangan model AI merupakan salah satu penyebab perubahan iklim yang terabaikan. Ilmuwan komputer di Universitas Kopenhagen telah membuat buku resep untuk merancang model AI yang menggunakan lebih sedikit energi tanpa mengurangi kinerja. Mereka berpendapat bahwa konsumsi energi dan jejak karbon suatu model harus menjadi kriteria tetap ketika merancang dan melatih model AI.

Fakta bahwa sejumlah besar energi diperlukan untuk menggunakan Google, berbicara dengan Siri, meminta ChatGPT untuk menyelesaikan sesuatu, atau menggunakan AI dalam arti apa pun, secara bertahap telah menjadi pengetahuan umum. Sebuah studi memperkirakan bahwa pada tahun 2027, server AI akan mengonsumsi energi sebanyak Argentina atau Swedia. Memang benar, satu perintah ChatGPT diperkirakan menghabiskan rata-rata energi sebanyak empat puluh biaya telepon seluler. Namun komunitas riset dan industri belum menjadikan pengembangan model AI yang hemat energi dan lebih ramah iklim sebagai fokusnya, kata peneliti ilmu komputer di Universitas Kopenhagen.

Pergeseran Menuju AI yang Hemat Energi

“Saat ini, pengembang hanya fokus pada pembuatan model AI yang efektif dalam hal ketepatan hasil mereka. Ini seperti mengatakan bahwa sebuah mobil efektif karena dapat mengantarkan Anda ke tujuan dengan cepat, tanpa mempertimbangkan jumlah bahan bakar yang digunakan. Akibatnya, model AI seringkali tidak efisien dalam hal konsumsi energi,” kata Asisten Profesor Raghavendra Selvan dari Departemen Ilmu Komputer, yang penelitiannya mencari kemungkinan untuk mengurangi jejak karbon AI.

Mengapa Jejak Karbon AI Begitu Besar?

Pelatihan model AI menghabiskan banyak energi, sehingga mengeluarkan banyak CO2e. Hal ini disebabkan oleh komputasi intensif yang dilakukan saat melatih model, yang biasanya dijalankan pada komputer yang kuat. Hal ini terutama berlaku untuk model besar, seperti model bahasa di balik ChatGPT. Tugas AI sering kali diproses di pusat data, yang memerlukan daya dalam jumlah besar untuk menjaga komputer tetap berjalan dan dingin. Sumber energi untuk pusat-pusat tersebut, yang mungkin bergantung pada bahan bakar fosil, mempengaruhi jejak karbonnya.

Namun penelitian terbaru, yang ditulis oleh beliau dan mahasiswa ilmu komputer Pedram Bakhtiarifard, menunjukkan bahwa kita dapat dengan mudah mengendalikan emisi CO dalam jumlah besar.2e tanpa mengurangi presisi model AI. Untuk melakukan hal ini, kita perlu mempertimbangkan biaya perubahan iklim mulai dari fase desain dan pelatihan model AI.

Baca juga  Acara TV Among Us Memiliki Banyak Pengisi Suara

“Jika Anda membuat model yang hemat energi sejak awal, Anda mengurangi jejak karbon di setiap fase ‘siklus hidup’ model tersebut. Hal ini berlaku baik pada pelatihan model, yang merupakan proses intensif energi yang seringkali memakan waktu berminggu-minggu atau berbulan-bulan, serta pada penerapannya,” kata Selvan.

Setiap titik pada gambar ini merupakan model jaringan saraf konvolusional dengan konsumsi energi pada sumbu horizontal dan kinerja pada sumbu vertikal. Secara konvensional, model dipilih hanya berdasarkan performanya – tanpa memperhitungkan konsumsi energinya – sehingga menghasilkan model dalam elips merah. Pekerjaan ini memungkinkan para praktisi untuk memilih model dari elips hijau yang memberikan trade-off yang baik antara efektivitas dan efisiensi. Kredit: Gambar dari artikel ilmiah (

Buku Resep untuk Industri AI

Dalam studinya, para peneliti menghitung berapa banyak energi yang dibutuhkan untuk melatih lebih dari 400.000 orang jaringan saraf konvolusional tipe model AI – ini dilakukan tanpa benar-benar melatih semua model ini. Antara lain, jaringan saraf konvolusional digunakan untuk menganalisis citra medis, untuk terjemahan bahasa, dan untuk pengenalan objek dan wajah – sebuah fungsi yang mungkin Anda ketahui dari aplikasi kamera di ponsel cerdas Anda.

Baca juga  Kota Gaza memperingatkan ancaman banjir dari kolam Sheikh Radwan

Berdasarkan perhitungan tersebut, para peneliti menyajikan kumpulan benchmark model AI yang menggunakan lebih sedikit energi untuk menyelesaikan tugas tertentu, namun memiliki kinerja pada tingkat yang kurang lebih sama. Studi menunjukkan bahwa dengan memilih jenis model lain atau dengan menyesuaikan model, penghematan energi sebesar 70-80% dapat dicapai selama fase pelatihan dan penerapan, dengan penurunan kinerja hanya sebesar 1% atau kurang. Dan menurut para peneliti, ini merupakan perkiraan konservatif.

Setara dengan Konsumsi Energi Orang Denmark selama 46 Tahun

Para peneliti UCPH memperkirakan berapa banyak energi yang diperlukan untuk melatih 429.000 model subtipe AI yang dikenal sebagai jaringan saraf konvolusional dalam kumpulan data ini. Antara lain, ini digunakan untuk deteksi objek, terjemahan bahasa, dan analisis citra medis.

Diperkirakan bahwa pelatihan saja dari 429.000 jaringan saraf yang diteliti dalam penelitian ini akan membutuhkan 263.000 kWh. Jumlah ini sama dengan jumlah energi yang dikonsumsi rata-rata warga Denmark selama 46 tahun. Dan dibutuhkan satu komputer sekitar 100 tahun untuk melakukan pelatihan tersebut. Para penulis dalam penelitian ini tidak benar-benar melatih model-model ini sendiri namun memperkirakan model-model tersebut menggunakan model AI lain, sehingga menghemat 99% energi yang seharusnya digunakan.

“Anggaplah hasil kami sebagai buku resep bagi para profesional AI. Resepnya tidak hanya menggambarkan kinerja berbagai algoritme, namun juga seberapa hemat energinya. Dan dengan menukar satu bahan dengan bahan lain dalam desain suatu model, sering kali seseorang dapat memperoleh hasil yang sama. Jadi sekarang, para praktisi dapat memilih model yang mereka inginkan berdasarkan kinerja dan konsumsi energi, dan tanpa perlu melatih setiap model terlebih dahulu,” kata Pedram Bakhtiarifard, yang melanjutkan:

Baca juga  Presiden Jokowi bertemu Elon Musk di Space X

“Seringkali, banyak model dilatih sebelum menemukan model yang diduga paling cocok untuk menyelesaikan tugas tertentu. Hal ini membuat pengembangan AI menjadi sangat boros energi. Oleh karena itu, akan lebih ramah iklim jika memilih model yang tepat sejak awal, dan memilih model yang tidak mengonsumsi terlalu banyak daya selama fase pelatihan.”

Para peneliti menekankan bahwa di beberapa bidang, seperti mobil self-driving atau bidang kedokteran tertentu, presisi model sangat penting untuk keselamatan. Di sini, penting untuk tidak berkompromi pada kinerja. Namun, hal ini tidak boleh menjadi penghalang untuk mengupayakan efisiensi energi yang tinggi di bidang lain.

“AI mempunyai potensi yang luar biasa. Namun jika kita ingin memastikan pengembangan AI yang berkelanjutan dan bertanggung jawab, kita memerlukan pendekatan yang lebih holistik yang tidak hanya mempertimbangkan kinerja model, tetapi juga dampak iklim. Di sini, kami menunjukkan bahwa ada kemungkinan untuk menemukan trade-off yang lebih baik. Ketika model AI dikembangkan untuk berbagai tugas, efisiensi energi harus menjadi kriteria tetap – seperti yang menjadi standar di banyak industri lainnya,” Raghavendra Selvan menyimpulkan.

“Buku resep” yang dikumpulkan dalam karya ini tersedia sebagai kumpulan data sumber terbuka untuk digunakan oleh peneliti lain. Informasi tentang 423.000 arsitektur ini dipublikasikan di Github yang dapat diakses oleh praktisi AI menggunakan skrip Python sederhana.

Referensi: “EC-NAS: Tolok Ukur Tabular Sadar Konsumsi Energi untuk Pencarian Arsitektur Neural” oleh Pedram Bakhtiarifard, Christian Igel dan Raghavendra Selvan, 18 Maret 2024, ICASSP 2024 – Konferensi Internasional IEEE tentang Akustik, Pidato, dan Pemrosesan Sinyal (ICASSP) 2024.
DOI: 10.1109/ICASSP48485.2024.10448303

Artikel ilmiah tentang kajian tersebut akan dipresentasikan pada International Conference on Acoustics, Speech and Signal Processing (ICASSP-2024).

Penulis artikel ini adalah Pedram Bakhtiarifard, Christian Igel dan Raghavendra Selvan dari Departemen Ilmu Komputer Universitas Kopenhagen.