Trik “Caveman Prompting”: Cara Bicara ala Manusia Purba ke Claude Demi Menghemat Token

Saat menggunakan AI seperti Claude Code di terminal, pernahkah kalian memperhatikan berapa banyak kata “tolong”, “bisakah kamu”, atau “buatkan saya” yang kalian ketik?

Sebagai System Engineer, efisiensi adalah segalanya. Setiap kata yang kita masukkan ke terminal akan dihitung sebagai token. Semakin banyak kata basa-basi, semakin boros token yang kita pakai, dan semakin cepat context window kita penuh—terutama saat kita sedang menyuapi Claude dengan file log Zimbra atau Carbonio yang panjangnya ribuan baris.

Di sinilah teknik “Caveman Prompting” (Prompting ala Manusia Purba) menjadi trik rahasia para developer berpengalaman.

Apa Itu Caveman Prompting?

Konsepnya sederhana: Hilangkan semua struktur tata bahasa (grammar) dan kata penghubung, lalu sisakan hanya keyword dan instruksi mentah.

Bayangkan seorang manusia purba yang ingin makan. Dia tidak akan berkata, “Permisi, bisakah Anda mengambilkan saya apel di atas meja itu?” Dia hanya akan menunjuk dan menggeram, “Apel. Meja. Ambil.”

Claude dan model bahasa besar (LLM) lainnya dirancang untuk memahami konteks dari keyword, bukan dari tata bahasa yang indah. AI tidak punya perasaan, jadi kalian tidak perlu bersikap sopan.

Kenapa Teknik Ini Sangat Berguna di CLI?

  1. Hemat Token = Hemat Biaya/Limit: Setiap kata “tolong” atau “yang” memakan token. Untuk tugas repetitif harian, penghematan ini sangat terasa.
  2. Kecepatan Ketik: Di terminal, kita butuh kecepatan. Mengetik instruksi pendek jauh lebih cepat daripada menyusun kalimat S-P-O-K yang sempurna.
  3. Fokus pada Logika: Kalian jadi lebih fokus pada parameter teknis (port, IP, nama direktori) daripada memikirkan susunan kalimat.

Contoh Evolusi Mundur (Demi Efisiensi)

Mari kita lihat perbandingan bagaimana prompt manusia modern vs manusia purba (Caveman) saat mengelola server:

Kasus 1: Bikin Script Ansible

  • 🤵 Manusia Modern (Boros Token): “Tolong buatkan saya sebuah Ansible playbook yang berfungsi untuk menginstal dan mengkonfigurasi HAProxy sebagai load balancer di mode TCP.”
  • 🦍 Caveman (Hemat Token): “Ansible playbook. HAProxy load balancer TCP mode.”
  • Hasil: Claude tetap akan memberikan script yang sama persis dan akurat!

Kasus 2: Troubleshooting DNS BIND9

  • 🤵 Manusia Modern: “Saya sedang mengalami error pada BIND9. Bisakah kamu mengecek konfigurasi zone file ini dan memberi tahu saya di mana letak kesalahan Master-Slave DNS-nya?”
  • 🦍 Caveman: “Cek BIND9 zone file. Cari error Master-Slave.”

Kasus 3: Parsing Log

  • 🤵 Manusia Modern: “Tolong baca file /var/log/mail.log berikut ini, lalu carikan alamat IP mana saja yang melakukan koneksi tapi ditolak (rejected).”
  • 🦍 Caveman: “Parse /var/log/mail.log. Ekstrak IP rejected.”

Kapan Tidak Boleh Pakai Gaya Caveman?

Meskipun sangat efisien, ada kalanya kalian harus kembali menjadi “Manusia Modern”:

  1. Menulis SOP atau Dokumentasi: Saat kalian meminta Claude membantu menyusun dokumen untuk Disaster Recovery Hub, gunakan bahasa yang jelas agar hasil output-nya bisa langsung dibaca oleh manusia (rekan kerja atau dosen kalian).
  2. Tugas Analisis Kompleks: Misalnya kalian sedang melakukan riset Machine Learning untuk deteksi spam, kadang memberikan penjelasan konteks yang utuh akan membantu AI menemukan korelasi yang lebih baik.

Kesimpulan

Berhenti membuang-buang token untuk kesopanan yang tidak perlu. Di dalam terminal, efisiensi adalah raja. Dengan menerapkan gaya Caveman Prompting, kalian bisa menyelamatkan kuota token, mempercepat workflow automasi server, dan tetap mendapatkan hasil kodingan atau konfigurasi yang setajam Senior Engineer.

Leave a Reply

Your email address will not be published. Required fields are marked *