Budget $20 Resmi Tumbang, Skill Layer Jadi Pembeda — AI Tools Digest #11
Budget $20 Resmi Tumbang, Skill Layer Jadi Pembeda — AI Tools Digest #11
Minggu ini timeline grup rasanya makin jujur. Bukan lagi soal model mana paling sakti, tapi soal siapa yang masih bisa bikin workflow AI-nya waras secara biaya, stabil secara operasional, dan fleksibel secara tooling. Store WhatsApp yang sudah lengkap sekarang menunjukkan gambaran yang jauh lebih padat: 509 pesan untuk 5–12 April, bukan 63 pesan tipis seperti run sebelumnya.
Yang paling terasa buat saya, benchmark baru grup ini bukan lagi “model apa yang paling pintar”, tapi “stack mana yang masih masuk akal buat dipakai kerja tiap hari”. Ternyata ketika limit mulai menggigit dan bonus kredit habis, orang-orang tidak berhenti. Mereka migrasi, ngeracik, dan mulai memperlakukan skills, plugins, MCP bridge, dan wrapper hemat token sebagai bagian inti dari produk. Bukan aksesori.
Budget $20 sekarang bukan paket pemula, tapi paket nostalgia
Di awal minggu, percakapan soal harga langsung keras. Mas Joko merangkum semuanya dengan kalimat yang terlalu jujur untuk dibantah, "$20 ga cukup samsekw wkk". Mas Michael menimpali lebih sadis lagi waktu saya share /ultraplan di Claude Code: "$20 dipojokan tahan2 😂".
Yang menarik, bukan cuma keluhan. Mas Ivan kasih perspektif yang lebih operasional: "Dr saya pribadi untuk urusan kerjaan di kantor. Sebenarnya $20 CC + $30 codex (yg organization version). Cukup", lalu dia jelaskan bahwa kuncinya ada di routing, pakai Sonnet atau GPT-5.4 mini untuk tugas ringan. Jadi masalahnya bukan sekadar nominal subscription, tapi disiplin memilih model yang sesuai tingkat kerjaan.
Tetap saja, suasana umum grup sudah berubah. Waktu rumor Codex makin dekat ke pricing token-based dibahas lewat thread Hacker News, obrolan langsung bergeser ke mode survival. "$20 skrg adalah ilusi 😂", kata Mas Michael. Bahkan candaan seperti "Bbm naik listrik naik. Ai naik wkwkwk" dari Mas Iqbal terasa lucu karena terlalu dekat dengan kenyataan.
Artinya apa? Paket murah belum mati, tapi dia sudah tidak bisa lagi dianggap jalur default untuk semua orang. Sekarang yang menentukan bukan siapa punya subscription termurah, tapi siapa paling rapi merakit komposisi modelnya.
Token thrift bukan gimmick lagi, sudah jadi kategori sendiri
Tema kedua yang paling ramai adalah eksperimen menghemat token. Pemicunya Caveman, repo yang di-share Mas Desilino sebagai "repo kocak buat hemat token cc". Dari situ diskusinya berkembang cepat, dan justru makin menarik karena tidak semua orang langsung percaya.
Mas Salma langsung tanya terus terang, "Kalau tambah epepep + caveman, hematnya nambah brp %? Ada degrading performance ngga?" Kekhawatiran itu dijawab dengan cukup jujur juga. Mas Nanda bilang, "jangan pake caveman pas thinking kwkwkwkw, dia jadi miss context gitu", lalu kasih contoh hasil absurd, "service do stuff, and stuff buggy". Mas Budi bahkan sudah masuk tahap tuning: "caveman udah nyoba itu problemnya karena semua outputnya mas jadi di perpendek, akhirnya saya adjust mode cueknya buat speaking aja klo buat write/edit files normal".
Buat saya ini bagian paling penting minggu ini. Grup tidak lagi memperlakukan wrapper hemat token sebagai hack receh. Orang-orang mulai mengujinya seperti komponen workflow yang serius. Bahkan Mas Budi sudah membangun flow dua jendela: Claude untuk PRD dan review, lalu GLM untuk implementasi. Di situ Caveman dipakai hanya untuk speaking-only, bukan untuk semua tahap. Ini bukan vibe coding asal-asalan, ini mulai terasa seperti cost-aware system design.
Tapi komprominya jelas. Seperti kata Mas Syamil, "Hemat token tapi problemnya ga solve 😅". Dan itu mungkin takeaway paling sehat minggu ini: penghematan itu penting, tapi kalau kualitas turun sampai bug-nya tidak kebaca, hematnya jadi semu.
Migrasi mulai ditentukan bukan oleh model, tapi oleh limit dan ergonomi
Kalau minggu-minggu lalu kita masih sibuk debat benchmark, minggu ini orang-orang lebih pragmatis. Di OpenCode, Amp Code, gateway Alibaba, sampai Forgecode versi obrolan komunitas, yang dibahas bukan “siapa nomor satu”, tapi “mana yang enak dipakai, limitnya waras, dan error rate-nya kecil”.
Mas Adnan membuka thread yang menurut saya sangat mewakili mood grup sekarang: "Ada yg pengguna setia Claude Code (pro plan wkwk) sekarang cancel subs karena sering banget kena limit? Kalau iya, ganti jadi apa dan kenapa?" Lalu dia sendiri kasih jawabannya: "Sementara puas banget sama opencode.ai/go ... Pakai Minimax M2.7 kenceng banget dan cukup bagus planning sama eksekusi plannya".
Di sisi lain, Mas Endang cerita pengalaman yang lebih infrastruktur-minded: OpenCode oke, tapi perlu setup hemat RAM, "btw buat opencode mending spawn 1 server/web, nannti sisanya tinaggal attach attach aja lebih hemat ram". Mas Zahid bahkan sudah punya racikan yang cukup konkret: "main glm, reviewer gpt5.4, plan juga glm tapi di reveiw gpt5.4, kerjaan recek gpt5.4mini xhigh".
Amp Code juga tetap masuk percakapan, tapi nuansanya berubah. Bukan lagi euforia murni, melainkan evaluasi ROI. Ada yang masih puas, seperti Mas Andre: "so far masih sesuai harapan banget semua outputnya Amp". Tapi ada juga reminder dari Mas Dedy P, "bsk terakhir bonus $20/hari Amp 😭". Lagi-lagi gratisan terasa paling penting justru ketika mau dicabut.
Menurut saya, ini titik penting. Migrasi tool sekarang bukan lagi loyalitas merek. Ia lebih mirip manajemen supply chain. Kalau limit turun, harga naik, atau model tertentu rewel, orang langsung cari kombinasi baru. Yang lincah bertahan, yang kaku kepentok.
Glue layer makin penting daripada official support list
Ada satu thread kecil tapi konsekuensinya besar. Mas Sem tanya apakah OpenCode bisa connect ke Figma MCP, padahal namanya tidak muncul di guide resmi. Ini pertanyaan klasik, tapi jawaban minggu ini terasa sangat 2026.
Saya jawab, "Kalau Figma punya MCP, OpenClaw bisa connect via mcporter", sambil share link ke visi MCP OpenClaw. Buat saya ini bukan sekadar workaround teknis. Ini cara pikir yang makin sering muncul di grup: jangan terlalu tunduk pada daftar support resmi. Kalau protokolnya ada, kemungkinan besar jalur jembatannya bisa dibikin.
Itu juga nyambung ke percakapan akhir minggu ketika saya share bahwa pindah dari Claude Code ke Codex langsung bikin terasa "pincang kehilangan plugins & skills yg biasanya dipake". Bahkan waktu ada saran dari Mas Wibowo untuk mem-proxy Codex lewat Claude Code, saya tetap ragu, karena harness yang sama belum tentu optimal untuk model yang berbeda. Di OpenClaw juga begitu, ganti dari Opus 4.6 ke GPT-5.4 sering perlu perubahan di layer atas, bukan cuma ganti endpoint.
Artinya jelas: model commoditize lebih cepat daripada workflow. Yang bikin orang berat pindah sering kali bukan IQ model, tapi skill layer di sekelilingnya.
Mythos, outage, dan rasa was-was yang makin mahal
Di tengah obrolan pricing dan tooling, ada juga lapisan psikologis yang menarik: grup ini masih sangat gampang terpancing oleh sinyal model frontier baru. Waktu Anthropic Glasswing dan obrolan Mythos muncul, reaksinya campur aduk antara kagum, takut, dan langsung menghitung biaya.
Mas Michael bilang, "yg jelas mythos ini nanti sdh tidak relate dengan paket $20 😂😂😂". Saya spontan nyeletuk, "Mythos hanyalah mitos bagi paket $20 🤣". Dan itu lucu justru karena semua orang paham arahnya: frontier capability makin maju, tapi jarak antara demo dan affordability juga makin lebar.
Sementara itu reliability tetap jadi luka lama. Ketika Claude status page menunjukkan Sonnet down, candaan "Emang udah waktunya pindah ke GPT-family" muncul lagi. Beberapa hari sebelumnya, Mas Aidityas juga sudah ngasih alarm sederhana tapi efektif saat lihat error 529: "Mulai guys penyakitnya".
Nah, di sini saya rasa ada pola yang makin jelas. Frontier model masih bikin kita terpukau, tapi trust sehari-hari justru dibentuk oleh limit, uptime, dan apakah tool itu masih bisa dipakai Senin pagi tanpa drama. Kecanggihan tanpa ketersediaan makin sulit dijual.
⚡ Quick Hits
- RTK dan Serena muncul lagi sebagai pasangan penghemat konteks. Mas Michael bilang kombinasi itu "cukup membantu", tapi Mas Iqbal merasa aliasing command ke RTK malah bisa nambah overhead output.
- Mas Faris tetap bertahan dengan Claude Code untuk ngonten, karena "kalau konten pakai opencode itu orang awam gak familiar". Jadi ergonomi bukan cuma soal dev workflow, tapi juga persepsi audiens.
- Diskusi kecil soal Windsurf mengingatkan bahwa bundling model pernah dicoba sebelumnya, lalu hilang. Fitur “pintar” yang tidak terasa dampaknya memang cepat dilupakan.
- Mas Al Faris share racikan Alibaba model (GLM, Kimi, Qwen) plus Forgecode karena "errors ratenya kecil". Ini menambah sinyal bahwa racikan China-stack makin serius dilihat, bukan sekadar plan cadangan.
Quick hits ini mengarah ke kesimpulan yang sama: tool terbaik bukan yang paling heboh, tapi yang paling bisa diracik sesuai konteks kerja masing-masing.
✅ Yang Perlu Dicoba Minggu Ini
- Coba
/ultraplandi Claude Code untuk task yang perlu breakdown dulu sebelum eksekusi. - Kalau sedang cari penghematan, uji Caveman sebagai speaking-only layer, bukan untuk semua mode kerja.
- Eksplor kombinasi OpenCode + provider murah, atau racikan gateway Alibaba Coding Plan kalau masih kebagian akses, lalu bandingkan dengan stack lama berdasarkan kualitas review, bukan harga saja.
- Kalau workflow-mu tergantung MCP, baca guide Figma MCP lalu pikirkan bridge layer seperti OpenClaw sebelum menyerah pada daftar support resmi.
- Audit stack-mu sendiri: apakah yang bikin kamu betah itu modelnya, atau justru plugins, skills, dan harness di sekitarnya?
👥 Kontributor Minggu Ini
- Mas Joko — merangkum runtuhnya paket $20 dengan kalimat paling ngena minggu ini.
- Mas Michael — paling konsisten membaca pergeseran harga, limit, dan horizon Mythos.
- Mas Ivan — memberi counterweight bahwa budget kecil masih mungkin kalau routing model-nya disiplin.
- Mas Desilino — memicu eksperimen token thrift lewat share Caveman.
- Mas Salma — mengajukan pertanyaan yang tepat soal tradeoff penghematan versus degradasi kualitas.
- Mas Nanda — memberi reality check bahwa Caveman bisa bikin context collapse saat thinking.
- Mas Budi — membagikan workflow hybrid paling konkret minggu ini, termasuk penggunaan Caveman secara terbatas.
- Mas Adnan — membuka thread migrasi dari Claude Code ke alternatif yang lebih tahan limit.
- Mas Endang — menambah perspektif operasional untuk OpenCode dan setup hemat RAM.
- Mas Zahid — berbagi racikan multi-model yang lebih realistis daripada sekadar pakai satu model untuk semua hal.
- Mas Dedy P — mengingatkan bahwa bonus Amp tidak akan bertahan selamanya.
- Mas Sem — memantik diskusi penting tentang MCP, interoperability, dan support list.
- Mas Wibowo — mewakili insting komunitas untuk mem-proxy model lintas harness, bahkan ketika jawabannya belum tentu iya.
- Mas Al Faris — membawa opsi Alibaba model + Forgecode ke meja diskusi.
Ditulis dari dalam grup, bukan dari luar. Zain Fathoni, dengan bantuan Bro Pro 🚔, Kang Re 📼, dan Lek Jack 🛠️ — 12 April 2026