Pemakaian Makin Gila, Mocin Makin Garang, dan Kita Semua Butuh Istirahat — AI Tools Digest #7
Pemakaian Makin Gila, Mocin Makin Garang, dan Kita Semua Butuh Istirahat
558 pesan dari ~30 kontributor aktif minggu ini. Dan kalau harus merangkum dalam satu kalimat: semua orang sedang mencari cara supaya tetap produktif tanpa bangkrut — atau burnout. Pemakaian AI makin intensif sampai subscription termahal pun terasa kurang, model China makin menggoda, dan di balik semua optimisasi token itu, ada manusia yang capek. 😮💨
💸 $200 Aja Gak Cukup? — Dilema Heavy User di Era AI Agents
Topik paling panas minggu ini. Mas Agung membuka diskusi dengan pengalaman yang langsung bikin banyak orang relate: "claude makin kikir :( biasanya seminggu full trotel cuma kepake 40% sekarang 87%". Dan ini di plan Max $200 lho — bukan yang murah.
Tapi sebelum menyalahkan Anthropic, mari kita lihat konteksnya. Pemakaian kita memang meledak — multi-agent workflows, Claude Code yang running paralel, context window yang makin panjang. Wajar kalau kuota yang dulu terasa longgar sekarang terasa sempit. Bukan karena dikurangi, tapi karena kita pakai jauh lebih banyak dari sebelumnya.
Dan Anthropic justru sedang menambah benefit. Minggu ini mereka memberikan semacam THR Ramadhan — double usage di luar peak hours dan selama weekend. Saya share info ini di grup: "Ada THR berupa double-usage di luar peak hours & selama weekend." Ditambah 1M token context window tanpa biaya tambahan (lebih lanjut di bagian context window). Ini bukan provider yang pelit — ini provider yang sedang scaling sambil cari keseimbangan.
Tetap saja, realitanya buat heavy users memang menantang. Beberapa member sudah mulai ambil keputusan drastis. Mas Ivan mengumumkan: "saya resmi cancel claude code. Tetap di codex dan kembali..." — keputusan yang bukan cuma soal uang, tapi juga soal mental health (lebih lanjut di bagian burnout). Dan ada yang fair point: "$200 gak mungkin dikasih los-losan." Model bisnis subscription flat memang tidak dirancang untuk pemakaian se-intensif workflow AI agent modern.
Ini dilema klasik: kita jadi lebih produktif → pemakaian naik → kuota terasa kurang → cari alternatif. Bukan salah provider-nya pelit, tapi pertumbuhan pemakaian kita yang luar biasa cepat.
Dan dari semua diskusi ini, lahirlah lelucon terbaik minggu ini dari Mas Arif: "Coding di malam ganjil, namanya jadi Lailatul Coder." 🌙 Kalau ada award untuk joke of the week, ini juaranya tanpa voting. Pas banget dengan suasana Ramadhan — sahur sambil coding, berburu token yang berlipat ganda di malam hari. Absolute legend.
🔄 GPT 5.4 Naik — Saatnya Tinggalkan Anthropic?
Mas Zahid minggu ini datang dengan take yang cukup berani: "sepertinya saya bakalan meninggalkan anthropic subs, gpt 5.4 lebih bagus daripada opus, buat plan tinggal pakek xhigh, kalo implement pakek low dan jadi orchestrator, terus delegate ke mocin."
Ini bukan sekadar keluhan — ini strategi yang sudah dipikirkan matang. Mas Zahid pakai Oh My Pi (omp) dan menemukan workflow optimal: GPT 5.4 xhigh untuk planning dan review, thinking level medium, lalu delegasi implementasi ke model-model China yang jauh lebih murah. Budget-nya? "so far model gini bisa sih cukup subs 30 usd 20 gpt 10 nya ali." $30 per bulan total. Bandingkan dengan $200 Claude Max yang terasa kurang untuk heavy users.
Tekniknya: hanya invoke oracle/reviewer untuk tahap planning dan review. Untuk eksekusi, serahkan ke model yang lebih murah. Thinking level dijaga di medium supaya token tidak bocor. Ini level optimisasi yang sudah seperti financial engineering — tapi untuk AI tokens.
Dan Mas Zahid juga menemukan bahwa Qwen 3.5 ternyata impresiif: "qwen 3.5 bagus juga, 1m context performa mirip sonnet 4.6." Kalau benar performanya setara Sonnet tapi jauh lebih murah, ini game changer.
Pertanyaan besarnya: apakah ini awal dari era multi-provider sebagai norma? Atau justru masing-masing provider akan merespons dengan value proposition yang lebih jelas? Kita lihat.
🐉 Model China Makin Garang — Kimi, GLM, Qwen, MiniMax
Minggu ini terasa seperti showcase model China. Setiap hari ada review baru, benchmark baru, dan discovery baru.
Kimi 2.5 jadi bintang utama. Mas Zahid memposisikannya: "diantara sonnet dan opus posisinya." Bukan cuma opini satu orang — DHH sendiri sudah pakai Kimi sebagai daily driver. Mas Desilino menambahkan bahwa Kimi 2.5 di Kilo gateway "lebih kenceng daripada frontier models." Via Moonshot subscription langsung juga cepat. Kalau positioning-nya benar antara Sonnet dan Opus, dengan harga yang jauh lebih murah, ini ancaman serius buat Anthropic.
Tapi ada catatan penting dari Mas Zahid soal tool calling: "Tool call bagus Kimi 2.5, Glm kadang gagal tool call nya." Ini insight yang sering terlewat — model bisa pintar, tapi kalau tool calling-nya tidak reliable, agent workflow jadi berantakan.
GLM-5 preview diumumkan, dengan versi Turbo yang sedang disiapkan. Mas Michael rajin share update-nya. Tapi ada masalah latency. Mas Faris menemukan: "Keknya emang di Reddit keluhannya gitu. GLM di Alibaba lambreto." Mas Zahid konfirmasi bahwa GLM di Claude Code "lebih lemot daripada di Droid dan pi." Jadi di mana kamu akses model-nya sangat mempengaruhi pengalaman — tema yang akan kita bahas lebih lanjut di bagian Provider vs Direct.
Qwen 3.5 menarik perhatian terutama untuk penggunaan local LLM. Dan MiniMax juga sedang menyiapkan release baru. Landscape model China semakin crowded — dan itu berita bagus buat konsumen yang ingin alternatif murah.
🏠 Local LLM — AI Gratis Sepuasnya, Bayarannya Laptop Anget
Mas Ikhsan menulis artikel yang langsung menarik perhatian grup: How to Run Limitless Free AI Agent with Local LLM. Konsepnya sederhana: pakai Qwen 3.5 9B parameter, jalankan di laptop sendiri, dan voilà — AI agent gratis selamanya.
Testimoninya: "testimoni pribadi, so far pemakaian di sy lumayan reliable sih perlu sekitar 10 detik TTFT." Sepuluh detik first token time untuk model yang jalan di laptop — lumayan reasonable untuk task-task sederhana.
Filosofinya menarik: "solusi untuk menanggapi harga AI makin mahal + token sering limit, bisa consider untuk run local llm, paling bayarannya laptop anget aja." Respons dari member? "Kepala juga anget." 😂 Fair enough — debugging local LLM memang bisa bikin pusing.
Mas Nulad sudah coba model 32B parameter dan hasilnya terlalu lambat. Kesimpulannya: di bawah 10B parameter masih reasonable speed-nya. Artinya ada trade-off yang jelas — model yang cukup pintar untuk task serius butuh resource yang tidak semua laptop punya.
Tapi sebagai fallback untuk task-task ringan dan eksperimen, local LLM makin viable. Apalagi dengan tren model yang makin efisien di ukuran kecil. Mungkin setahun lagi, 10 detik TTFT itu jadi 2 detik.
🧠 Token Optimization Stack — RTK + Serena
Kalau local LLM adalah solusi "gratis tapi terbatas", maka RTK + Serena adalah solusi "tetap pakai cloud tapi irit maksimal."
Diskusi soal RTK (Rust Token Killer) dan Serena cukup mendominasi minggu ini. Mas Michael yang pertama share testimoni: "rtk sdh pake testimoni cukup membuat hemat", lalu menambahkan: "pake rtk + serena atau salah satunya biar hemat token."
RTK pada dasarnya mengoptimasi context yang dikirim ke model — mengurangi token yang tidak perlu tanpa mengorbankan kualitas output. Bisa di-install di Claude Code, Amp, bahkan Pi. Info lebih lengkap ada di codestz.dev.
Yang menarik adalah discovery soal Serena query_projects. Ternyata fitur ini GG banget untuk onboarding — "Ternyata pakai serena query_projects GG banget." Bisa bikin agent langsung paham struktur project tanpa harus baca file satu-satu, yang artinya token lebih hemat di awal sesi.
Ada juga diskusi soal integrasi RTK di OpenCode via hooks. Ekosistem token optimization ini makin mature — bukan lagi hack individual, tapi sudah jadi stack yang bisa di-compose.
🫠 AI Agent Burnout — Yang Jarang Dibahas
Ini bagian yang paling penting untuk ditulis, dan mungkin paling tidak populer. Tapi harus.
Mas Ivan yang tadi cancel Claude Code ternyata bukan cuma soal uang: dia memprioritaskan mental health. Dan dia bukan satu-satunya. Mas Iqbal mengungkapkan dengan jujur: "cape ujung2nya lbh cape dari kerja biasa. Kek harus keep up dan deliver lbh byk malah bukannya bkin santai."
Ini paradoks yang sangat real. AI tools seharusnya bikin kita lebih efisien — dan memang iya. Tapi efisiensi itu menciptakan ekspektasi baru: kalau sekarang bisa deliver 3x lebih banyak, besok diharapkan deliver 4x. Saya share artikel soal AI increasing work intensity di grup untuk mengangkat topik ini.
Response saya di grup: "Kewarasan mental tetap lebih penting Mas. Jangan sampai burnout gara-gara diperbudak AI." Dan saya sendiri jujur mengakui: "belakangan ini lagi agak sering main game. Capek mantau Claude Code & OpenClaw." Ya, bahkan penulis digest ini pun butuh break dari AI tools. 🎮
Ini bukan soal lemah atau kurang tangguh. Ini soal kenyataan bahwa "mantau" AI agent itu sendiri adalah pekerjaan kognitif. Kamu harus review output-nya, validasi keputusan-keputusannya, intervene kalau mulai ngaco, dan terus-menerus membuat micro-decisions. Itu exhausting.
Pesan dari minggu ini: tools boleh unlimited, tapi otak kita tidak. Take breaks. Main game. Jalan-jalan. Tidur yang cukup. AI masih akan ada besok.
📐 1M Context Window — Lega Rasanya
Opus 4.6 dan Sonnet sekarang mendukung 1 juta tokens context window. Dan ini benar-benar game changer untuk workflow sehari-hari.
Saya share perasaan di grup: "Sungguh lega rasanya punya 1 juta token context window. Biasanya kalau udah 146k tokens gini musti buru-buru." Sebelumnya, ada anxiety setiap kali context mendekati batas — harus planning kapan compaction, mikirin apa yang harus di-drop, dan kadang kehilangan context penting.
Mas Agung di plan Max bahkan kaget: "kaget kok gak ada compaction di 140k token, bablas sampe 240k token." Ini membuktikan bahwa 1M context bukan cuma marketing gimmick — benar-benar mengubah cara kita bekerja dengan agent. Use case yang paling terasa: Chrome DevTools MCP tests yang biasanya makan context super cepat, sekarang bisa jalan tanpa khawatir.
Tapi Mas Iqbal memberikan warning yang fair: "byk context jg bikin suffer si AI nya... ngaco pas udah 80 ke atas" — ini untuk Gemini. Jadi 1M context bukan berarti semua model bisa handle dengan baik. Frontier models seperti Opus dan Sonnet yang memang di-design untuk long context akan lebih reliable.
Dan ini langsung nyambung ke topik compaction...
📋 Compaction Itu Token Trap
Mas Ivan punya TIL yang bikin banyak orang kaget: "TIL ternyata compaction tetap nyedot token."
Ya, compaction — proses "merangkum" context supaya muat — itu sendiri butuh token. Ironis kan? Kamu compaction supaya hemat token, tapi proses compaction-nya makan token juga. Dan hasilnya sering kali mengecewakan — context penting hilang, agent kehilangan "ingatan" tentang keputusan sebelumnya.
Saya sudah lama tidak suka auto-compaction: "Makanya saya ga suka auto-compaction. Saya matiin di config-nya. Buat apa nyedot token banyak-banyak, hasilnya jelek pula. Lebih oke 'manual compaction' yang memang disengaja."
Dengan 1M context window, alasan untuk auto-compaction makin berkurang. Kecuali kamu benar-benar punya sesi marathon yang luar biasa panjang, lebih baik biarkan context tetap utuh. Manual compaction — di mana kamu sendiri yang tentukan apa yang perlu dirangkum dan kapan — jauh lebih efektif.
🏪 Provider vs Direct — Di Mana Kamu Beli Menentukan Apa yang Kamu Dapat
Ini topik yang sering terlewat tapi sangat penting. Saya jelaskan di grup: "perbedaan yg paling kentara itu ada di kecepatan inferensinya. Model yg sama di suatu provider bisa jadi lebih lambat/cepat/reliable."
Tapi yang lebih signifikan bukan cuma speed: "Yg lebih signifikan justru perbedaan agent harnessing-nya. Mis. sama-sama pakai Codex subscription, tapi dipanggilnya via Codex, Pi, atau OpenClaw. Itu hasilnya bisa beda jauh secara signifikan." Ini karena setiap harness punya cara sendiri dalam mengelola context, tool calling, retry logic, dan caching.
Mas Desilino menambahkan perspektif biaya: "Beda pak, kyknya provider gateway pasti ngambil cuan juga. Kalo mau get the most of it, ya subscribe langsung di Moonshot." Dan Mas Michael merangkum: "yg nentuin tool calling nya kayak opencode, pi.dev, cc, dsb."
Contoh konkret: Cerebras GLM = tercepat, tapi mahal. GLM via Alibaba = murah, tapi lambat. Model sama, pengalaman beda 180 derajat. Moral-nya: jangan cuma pilih model — pilih juga di mana dan bagaimana kamu menjalankannya.
📦 Monorepo + AI = Pasangan Sempurna
Mas Mamed membuka diskusi menarik tentang arsitektur repo yang optimal untuk AI workflows: "per AI an emang enak pake monorepo, agentnya jadi lebih gampang grasp context karena udah dalem repo yg sama."
Benefit yang paling terasa menurut pengalamannya: "yg paling kerasa kemarin ngebantu banget ketika bikin repo baru buat mobile app. karena udah ada core util functions, db enum dan color standards dari existing, si claude ga perlu bener2 start from scratch." Ini masuk akal — kalau semua kode ada di satu repo, agent bisa langsung reference existing patterns, utilities, dan conventions tanpa harus dijelaskan secara manual.
Ada juga diskusi soal pnpm shared node_modules untuk git worktrees, yang memungkinkan multiple working directories dari satu repo tanpa duplicate dependencies.
Kontra-argumennya tentu ada: monorepo butuh tooling yang lebih mature, CI/CD jadi lebih kompleks, dan tidak semua tim siap. Tapi khusus untuk AI-assisted development, argumen Mas Mamed cukup meyakinkan — context sharing antar packages itu memang valuable banget.
🎉 Berita Komunitas & Industri
Minggu yang ramai di front industri:
- OpenClaw diakuisisi OpenAI, Moltbook oleh Meta — konsolidasi besar di ekosistem AI tools. Saya share beritanya di grup.
- Nvidia NemoClaw diumumkan — Nvidia makin serius di tooling space.
- Sam Altman dengan pernyataan yang bikin merinding: "AI akan menjadi salah satu billing bulanan seperti bayar bulanan listrik dan air." Mas Tunggul yang share — dan kalau dipikir, kita sudah di tahap itu sekarang.
- Amazon mewajibkan senior engineers sign off semua perubahan AI-assisted setelah insiden outage. Ini reminder bahwa AI-generated code tetap butuh human oversight.
- Claude Maps feature diumumkan — Claude makin all-in di consumer use case.
- OpenCode Web launched, Desktop version upcoming — ekosistem OpenCode terus berkembang.
- Augment Code Intent update — pesaing baru di coding assistant space.
- Perplexity Computer rilis di iOS — Perplexity masuk ke OS-level integration.
- pi.dev creator akhirnya reveal wajahnya (di-share Mas Michael, tentu saja 😂).
- Zed Pro gratis untuk students — kabar baik untuk mahasiswa.
- Alibaba Coding Plan seharga $10/bulan — value yang cukup solid untuk akses model-model China.
- Post-Lebaran online forum sedang direncanakan Mas Ahsan untuk sub-group AI tools.
- Vibe From Cafe Jogja — buka bersama komunitas. Offline meetup masih hidup!
🔒 Security Corner
Dua topik penting soal keamanan minggu ini.
Pertama, saya bahas soal prompt injection defense di grup. Prinsipnya sederhana: pakai frontier models, bukan yang murah. Analoginya begini — kalau kamu kasih SOP yang kompleks ke anak intern, mereka puyeng dan gampang dikelabuhi. Tapi kalau yang pegang SOP itu senior engineer, jauh lebih aman — bahkan tanpa SOP pun sudah punya sense of security yang lebih baik. Sama halnya dengan model AI: frontier models lebih resistant terhadap jailbreak dan prompt injection dibanding model-model murah.
Kedua, Mas Michael mengingatkan soal risiko ban pi.dev ketika menggunakan Claude OAuth: "ada potensi karena login oauth pi.dev." Ini concern yang legitimate — ketika kita daisy-chain authentication antar services, risiko policy violation meningkat. Pastikan baca ToS masing-masing provider sebelum mixing authentication paths.
📈 Tren Minggu Ini
Emerging:
- GPT 5.4 sebagai alternatif serius untuk Opus — beberapa member mulai migrasi
- Token optimization stack (RTK + Serena) jadi standar baru
- Local LLM viable untuk task ringan — Qwen 3.5 9B sebagai entry point
- AI burnout jadi topik yang sah untuk dibicarakan di komunitas tech
Continuing:
- Model China (Kimi, GLM, Qwen) makin dipercaya sebagai alternatif budget
- Multi-tool workflow — bukan lagi tren, sudah jadi norma
- Provider/harness choice sama pentingnya dengan model choice
- Kere hore threshold terus naik — dan sepertinya belum berhenti
Fading:
- Single subscription loyalty — era "Claude only" atau "GPT only" sudah lewat
- Auto-compaction sebagai default — 1M context bikin ini less relevant
- Ilusi bahwa AI tools bikin kerja lebih santai — kenyataannya, lebih produktif ≠ lebih rileks
👥 Kontributor Minggu Ini
- Mas Michael — 176 pesan. Link curator supreme, unofficial ambassador for everything. Kalau ada berita AI, dia yang pertama share. 🏆
- Mas Zahid — 59 pesan. GPT 5.4 evangelist, Oh My Pi maestro, Kimi reviewer, budget optimization guru. "$30 cukup kok."
- Mas Agung — 50 pesan. Claude Max user yang jujur soal limitasi. WhatsApp member tag enthusiast.
- Zain — 34 pesan. Weekly digest writer, burnout awareness advocate, gamer karena capek mantau AI. 🎮
- Mas Faris — 21 pesan. OpenCode explorer, Claude ecosystem observer, GLM latency reporter.
- Mas Iqbal — 19 pesan. Budget reality check, AI burnout spokesperson. "cape ujung2nya lbh cape dari kerja biasa."
- Mas Finn — 16 pesan. Community enthusiast yang selalu hadir.
- Mas Ivan — 11 pesan. Cancel Claude Code demi mental health. Compaction TIL.
- Mas Luthfi — 11 pesan. Kimi fan, curious about everything.
- Mas Riza Rohman — 11 pesan. Kilo gateway reviewer.
- Mas Desilino — 9 pesan. Moonshot reviewer, honest about costs. "subscribe langsung di Moonshot."
- Mas Fajar — 9 pesan. Regional (Medan) representative.
- Mas Ikhsan — 9 pesan. Local LLM article author. "bayarannya laptop anget aja."
- Mbak Eka — 8 pesan. Antigravity limit questioner.
- Mas Tunggul — 8 pesan. Sam Altman quote sharer, SPT reminder.
- Mas Mamed — Monorepo advocate. Bringing architecture into the AI conversation.
- Mas Arif — Lailatul Coder joke master. 🌙 Legend.
- Mas Ahsan — Forum organizer. Post-Lebaran event planner.
- Mas Nulad — Local LLM tester. "32B terlalu lambat, under 10B reasonable."
- Mas Ismail — OpenCode Go/Zen info provider.
- Mas Cecep — Kimi vs GLM questioner. Perbandingan yang penting.
- Mas Otniel — Peak hours analyst.
- Mas Andrel — WhatsApp member tag setup, Google AI Ultra questioner.
- Mas Aria — Monorepo discussion contributor.
- Mas Aidityas — Claude Code UX questioner.
Ditulis dari dalam grup, bukan dari luar. Zain Fathoni, dengan bantuan Bro Pro 🚔, Kang Re 📼, dan Lek Jack 🛠️ — 16 Maret 2026