Panduan Membuat Hugging Face Space, Auto Bisa! Tanpa Ribet
Membangun aplikasi AI tidak cukup hanya berjalan di lokal. Panduan membuat Hugging Face Space ini dirancang untuk developer aplikasi dan website berbasis AI atau machine learning yang ingin memamerkan, menguji, dan membagikan proyek secara publik tanpa setup server yang rumit.

Sekilas tentang Hugging Face Space
Setelah sebuah aplikasi AI selesai dibangun, kebutuhan berikutnya biasanya sederhana: ingin menunjukkannya ke orang lain.
Dulu, free tier Heroku sering jadi andalan untuk demo cepat. Kini, opsi serupa makin terbatas, terutama untuk proyek berbasis machine learning.
Baca Juga: Kenalan dengan Ollama! Unggul Mana dari Hugging Face?
Di sinilah Space pada Hugging Face adalah solusi yang relevan. Platform ini bukan hanya sebagai tempat mengunggah kode, tetapi juga ruang untuk mempresentasikan hasil pengembangan AI dalam bentuk aplikasi yang bisa langsung dicoba.Â
Pengguna tidak hanya bisa melihat repository, tetapi benar-benar berinteraksi dengan model yang sedang mereka kembangkan.
Beberapa alasan Hugging Face Space banyak dipilih:
- Feedback pengguna nyata untuk validasi ide
- Portofolio publik yang mudah dibagikan
- Peluang kolaborasi dari komunitas AI global
- Uji coba apakah solusi benar-benar aplikatif
Baca Juga: Kupas Tuntas DeepSeek API: dari Fitur ke Cara Pakainya!
Secara fungsi, Hugging Face Space memungkinkan deploy model machine learning menjadi aplikasi web interaktif. Fitur seperti hosting demo Gradio, version control Git, komunitas aktif, pilihan hardware, hingga dukungan Docker menjadikannya titik awal yang praktis untuk mempublikasikan proyek AI secara profesional.
Cara Membuat Hugging Face Space

Setelah memahami apa itu Hugging Face Space dan kegunaannya, sekarang saatnya masuk ke praktik. Bagian ini membahas cara membuat Hugging Face Space langkah demi langkah, dari tahap paling dasar hingga Space siap digunakan.
Alurnya sengaja dibuat sederhana, karena sebagian besar kendala biasanya muncul justru di tahap awal.
Langkah 1: Bikin Akun Hugging Face
Langkah pertama terdengar sepele, tapi krusial. Semua Space terikat langsung ke akun Hugging Face dan repository Git milikmu.
- Buka website Hugging Face lalu klik Sign Up
- Isi email, username, dan password
- Lakukan verifikasi email
- Setelah login, luangkan waktu menjelajahi Model Hub dan Dataset Repository
Dari pengalaman, memahami ekosistem sejak awal akan mempermudah saat memilih model atau dataset di tahap berikutnya.
Langkah 2: Membuat Space
Masuk ke menu Spaces, lalu klik Create a new Space.
Di tahap ini, kamu perlu:
- Memilih framework (Gradio paling ramah pemula)
- Menentukan nama dan deskripsi singkat
- Mengatur visibilitas Space
Nama Space sebaiknya langsung mencerminkan fungsi aplikasi, karena ini akan menjadi identitas publik proyek AI-mu.
Langkah 3: Konfigurasi Lanjutan
Pada tahap konfigurasi lanjutan ini, keputusan yang kamu ambil akan berpengaruh langsung pada kemudahan pengelolaan Space ke depan.
- Owner: sebaiknya dibiarkan sesuai username akun agar tidak menimbulkan konflik hak akses.
- Space name: perlu dibuat deskriptif karena akan muncul di URL dan memengaruhi persepsi pengguna pertama kali.
- License: Opsional
- SDK: direkomendasikan Gradio, karena stabil, minim konfigurasi frontend, dan dokumentasinya matang.
- Template: Blank, untuk memberi fleksibilitas penuh tanpa kode bawaan yang tidak terpakai.
- Hardware: CPU basic (gratis), sudah cukup dan lebih aman dari sisi biaya.
- Privacy: Public, yang memungkinkan Space dibagikan, diuji publik, dan membangun portofolio AI secara terbuka sejak awal.
Konfigurasi ini sudah cukup untuk mayoritas demo machine learning.
Menjalankan Hugging Face Space untuk Bikin Aplikasi
Setelah Space berhasil dibuat, tahap berikutnya adalah menjalankannya sebagai aplikasi nyata. Di sinilah banyak developer mulai benar-benar memahami bagaimana Hugging Face Space bekerja di balik layar.
Langkah 1: Install Git
Git menjadi fondasi utama karena setiap Space pada dasarnya adalah repository. Tanpa Git, kamu tidak bisa mengirim kode ke Hugging Face.
- Install
Gitdari website resminya sesuai sistem operasi - Pastikan instalasi berhasil dengan menjalankan
git --versiondi terminal
Jika versi Git muncul, berarti environment sudah siap.
Langkah 2: Kloning Hugging Face Space
Selanjutnya, kloning Space ke lokal agar kode bisa dikembangkan dengan nyaman.
git clone https://huggingface.co/spaces/username/nama-space
Masuk ke folder hasil clone. Struktur awal memang terlihat kosong, dan itu normal.
Langkah 3: Buka Folder di VS Code
Buka folder tersebut di VS Code atau editor favoritmu. Biasanya hanya ada .gitattributes dan README.md. Agar Space bisa berjalan, kamu perlu menambahkan file aplikasi utama.
Langkah 4: Buat File app.py
File app.py adalah jantung aplikasi. Contoh sederhana fashion item classifier berikut cukup untuk memahami alur cara menjalankan Hugging Face Space:
Contoh kode:
import gradio as gr
from PIL import Image
import torch
from transformers import CLIPProcessor, CLIPModel
model = CLIPModel.from_pretrained("openai/clip-vit-base-patch32")
processor = CLIPProcessor.from_pretrained("openai/clip-vit-base-patch32")
fashion_items = ["shirt", "jumper", "dress", "jacket", "pants"]
def classify(image):
inputs = processor(text=fashion_items, images=image, return_tensors="pt", padding=True)
outputs = model(**inputs)
probs = outputs.logits_per_image.softmax(dim=1)
return {fashion_items[i]: float(probs[0][i]) for i in range(len(fashion_items))}
gr.Interface(fn=classify, inputs=gr.Image(type="pil"), outputs="label").launch()
Contoh ini cukup untuk memahami alur cara menjalankan Hugging Face Space.
Langkah 5: Tambahkan Dependency
Agar aplikasi bisa berjalan, buat requirements.txt:
transformers
torch
requests
Pillow
open_clip_torch
ftfy
gradio
Menuliskan dependency dengan lengkap akan mencegah error saat build.
Langkah 6: Tes Aplikasi
Aktifkan virtual environment dan jalankan:
python3 app.py
Buka URL lokal yang muncul. Jika hasil klasifikasi keluar, berarti aplikasi siap dideploy.
Kesalahan umum di tahap ini biasanya dependency lupa ditulis atau versi Python tidak sesuai.
Langkah 7: Upload ke Hugging Face Hub
Agar repository tetap bersih, buat .gitignore:
venv
Lalu commit dan push:
git add .
git commit -m "Initial commit"
git push origin main
Tunggu proses build selesai. Jika tidak ada error, Space bisa langsung diakses publik dan dibagikan.
Memahami Membangun dan Deploy Model AI
Membangun dan men-deploy model AI di Hugging Face Space dirancang agar tidak terasa berat, bahkan untuk developer yang baru pertama kali mempublikasikan model.
Platform ini mendukung framework populer seperti TensorFlow, PyTorch, dan JAX, sehingga kamu bisa tetap menggunakan tool yang sudah familiar.
Secara umum, alurnya sebagai berikut:
- Memilih pre-trained model dari Model Hub sesuai kebutuhan, misalnya untuk klasifikasi teks atau gambar
- Fine-tuning model menggunakan dataset sendiri agar hasil lebih relevan dengan kasus yang ingin diselesaikan
- Evaluasi performa dengan metrik yang sesuai sebelum dipublikasikan
- Deploy ke Space, sehingga model bisa langsung diakses lewat antarmuka web
Proses deploy model machine learning di sini jauh lebih sederhana dibanding setup server manual.
Memahami Dataset Hugging Face Space
Dataset adalah fondasi utama dalam machine learning. Tanpa data yang tepat, model secanggih apa pun tidak akan memberi hasil optimal.
Hugging Face menyediakan Dataset Repository yang memudahkan kamu menemukan data siap pakai untuk berbagai kebutuhan, mulai dari NLP, vision, hingga audio.
Beberapa hal penting yang perlu kamu perhatikan:
- Dataset Card berisi penjelasan konteks data, format, dan cara penggunaan
- Pencarian dan filter membantu menemukan dataset yang relevan dengan cepat
- Library
datasetsmemudahkan loading dan preprocessing data skala besar tanpa harus mengelola file secara manual
Resource yang Dibutuhkan Hugging Face Space

Hugging Face Space menyediakan resource gratis yang cukup untuk tahap awal pengembangan dan demo aplikasi AI. Paket ini ideal untuk validasi ide dan portofolio.
Resource Default (Gratis)
Secara bawaan, setiap Space mendapatkan:
- 2 vCPU
- 16 GB RAM
- ±50 GB disk (non-persistent)
- Gratis
Konfigurasi ini cocok untuk demo machine learning, inference model ringan, dan aplikasi Gradio dengan jumlah pengguna terbatas. Perlu dicatat, data yang disimpan saat runtime bisa hilang ketika Space di-restart.
Opsi Upgrade Hardware
Jika aplikasi mulai berat atau traffic meningkat, Hugging Face menyediakan upgrade:
- CPU Upgrade untuk preprocessing dan inference ringan
- GPU (T4, L4, A10G, A100) untuk model vision, NLP besar, atau LLM
Upgrade dihitung per jam dan bisa diatur langsung dari menu Settings di Space.
Community GPU Grant
Untuk proyek publik dan inovatif, tersedia community GPU grant. Program ini memungkinkan penggunaan GPU gratis atau bersubsidi, terutama untuk proyek open-source dan edukatif.
Hal yang Perlu Diperhatikan
- Space gratis bisa mengalami cold start
Kurang ideal untuk traffic tinggi - Kontrol environment terbatas dibanding VPS
Karena itu, Hugging Face Space paling efektif digunakan sebagai demo dan frontend AI, bukan backend utama skala besar.
Kesimpulan
Hugging Face Space membuktikan bahwa pengembangan AI dan publikasi aplikasi tidak harus rumit. Mulai dari eksperimen kecil hingga portofolio profesional, semuanya bisa dilakukan dalam satu ekosistem.
Namun, ketika proyek mulai berkembang, traffic meningkat, integrasi API dibutuhkan, atau ingin kontrol penuh atas environment, mengandalkan VPS Murah dari IDwebhost adalah langkah logis.Â
Dengan resource fleksibel dan performa stabil, kamu bisa mengembangkan aplikasi AI di Hugging Face Space sekaligus menyiapkan backend yang lebih matang untuk kebutuhan produksi.