Skip to main content
📝 Claude Cowork

De Claude Code Desktop App Veranderde Hoe Ik Software Bouw

De Claude Code Desktop App Veranderde Hoe Ik Software Bouw Drie weken geleden verwijderde ik VS Code van mijn machine. Niet omdat het kapot was. Niet...

14 min

Leestijd

2,750

Woorden

Feb 26, 2026

Gepubliceerd

Engr Mejba Ahmed

Geschreven door

Engr Mejba Ahmed

Artikel delen

De Claude Code Desktop App Veranderde Hoe Ik Software Bouw

De Claude Code Desktop App Veranderde Hoe Ik Software Bouw

Drie weken geleden verwijderde ik VS Code van mijn machine.

Niet omdat het kapot was. Niet omdat ik iets technisch superieur had gevonden op een feature-checklistmanier. Ik verwijderde het omdat ik besefte dat ik het veertien dagen niet had geopend — en elk project dat ik in die periode had opgeleverd, was uit de Claude Code desktop app gekomen.

Die realisatie voelde anders dan ik had verwacht. VS Code stond op elke machine die ik since 2018 heb bezeten. Mijn kantoor, mijn werkplaats, mijn zwaar-uitgebreide tweede brein als developer. En ergens tussen het in een middag uitbrengen van een thumbnail-generator-app en het kijken hoe twee AI-agents tegelijkertijd mijn UI herontworpen en mijn API optimaliseerden — stopte ik met het nodig hebben.

Hier is wat dat ongemakkelijk maakt om toe te geven: ik was sceptisch. Heel sceptisch. Ik heb "AI-powered IDE"-aankondigingen twee jaar lang door de techpers zien circuleren, en bijna allemaal bleken het Copilot met een nieuw laagje verf. Autocomplete verkleed als samenwerking. Dus toen de Claude Code desktop app voor Mac en Windows verscheen, keek ik naar de feature-lijst en dacht — oké, meerdere agents, live preview, cloud-uitvoering. Overtuig me.

Wat ik vond was iets structureel anders. En dat structurele verschil is het begrijpen waard voordat je het gewoon downloadt en begint rond te klikken — want als je dit gereedschap benadert zoals een traditionele IDE, mis je wat het echt laat werken.

Er is een specifiek moment waar ik naartoe wil — een workflow-realisatie die plaatsvond rond dag vijf van serieus gebruik — dat veranderde hoe ik denk over software bouwen. Maar om te begrijpen waarom dat ertoe deed, moet je eerst de permission-architectuur begrijpen. Het klinkt als een miniem UI-detail. Dat is het niet.


Waarom het Permissiesysteem de Kern Is

De Claude Code desktop app wordt geleverd met vier permissiemodi. Aan de oppervlakte lijken ze op een eenvoudige schuifregelaar tussen "voorzichtig" en "risicovol." Wat ze eigenlijk vertegenwoordigen is een raamwerk voor het dynamisch kalibreren van vertrouwen op basis van de inzet van een bepaalde taak.

Ask Permissions is de basislijn. Elke bestandsbewerking, elke terminalopdracht, elke actie vereist je expliciete goedkeuring voordat die plaatsvindt. Dit is trager door ontwerp — je wordt een poort in het human-in-the-loop-systeem — maar het is onschatbaar in twee specifieke situaties: wanneer je werkt aan een productiecodebase waar een onverwachte schrijfactie echte schade kan veroorzaken, en wanneer je leert hoe Claude een onbekend probleemtype benadert. De goedkeuringsprompts zijn beschrijvend genoeg dat kijken ernaar oprecht leerzaam is. Je ziet de redenering.

Auto Accept Edits is waar ik de meeste tijd doorbreng. Bestandsschrijfacties vinden automatisch plaats. Opdrachten vereisen nog steeds goedkeuring. Claude kan vrij scaffolden, schrijven en bestanden aanpassen, maar wanneer het npm install wil uitvoeren of een databasemigratie wil starten, zie je de opdracht nog steeds, bevestig je dat die logisch is, en dan keur je goed. Je stempelt niet blind af — je oefent oordeel uit op het abstractieniveau dat er werkelijk toe doet.

Planning Mode is de onderschatte. Er wordt niets gebouwd. Er wordt niets geschreven. Je hebt een gesprek over architectuur — hoe zou het schema eruit moeten zien, wat zijn de trade-offs tussen aanpak A en aanpak B, wat gaan we over zes weken waarschijnlijk betreuren als we dit pad kiezen. Ik gebruikte Planning Mode dertig minuten voordat ik een recente authenticatiesysteem bouwde, en het redde me van een architectureel dood spoor waar ik persoonlijk eerder in ben gelopen. De foreign key-structuur die we in de planning bespraken zou een pijnlijke migratie hebben veroorzaakt als ik eerst had gebouwd en daarna had nagedacht. Gebruik dit vaker dan je denkt nodig te hebben.

Bypass Permissions (YOLO Mode) — de naam is eerlijk. Claude werkt zonder onderbreking. Bestanden, opdrachten, installaties, serveropstarts, foutlezingen, fixes — alles autonoom. Echt krachtig voor wegwerpprototypes en nieuwe projecten zonder gevoelige context. Op alles wat verbonden is met productie, behandel het met gepaste serieuze aandacht. Het work tree-systeem (dat ik zo bespreken) bestaat specifiek om YOLO-modus veiliger te maken — je laat het in een geïsoleerde kopie lopen, beoordeelt de uitvoer, en beslist dan wat je samenvoegt.

De mogelijkheid om modus midden in een sessie te wisselen klinkt onbelangrijk totdat je het gebruikt in een moment met hoge inzet. Ik was in Auto Accept-modus bezig met een feature, raakte de databaselaag, en schakelde onmiddellijk over naar Planning Mode voordat ik Claude de schema liet aanraken. Die contextwissel kostte vijf seconden en bespaarde waarschijnlijk twee uur debuggen van een migratie die ik niet had bedoeld te schrijven.

Maar het permissiesysteem is eigenlijk alleen de fundering. Het plafond is wat er gebeurt met multi-agent workflows — en om daar te komen, moet je begrijpen wat er nog meer in deze omgeving zit.


Het Ecosysteem: Wat Er Eigenlijk In Zit

Voordat ik over agents praat, laat me het omringende ecosysteem doornemen, want er zijn een paar onderdelen die niet veel aandacht krijgen maar er in de praktijk toe doen.

Connectors koppelen Claude Code aan externe diensten. Gmail staat op de lijst; de Claude browser-extensie is de extensie die ik het meest gebruik. Het praktische gebruik: als ik API-documentatie lees in mijn browser en Claude een vraag stel over implementatie, brengt de connector de relevante docs-context naar boven zonder dat ik iets hoef te kopiëren en te plakken. Tien seconden bespaard per vraag klinkt triviaal. Gedurende een sessie van vier uur met veertig contextzoekopdrachten, telt dat op tot iets reëels.

De plugin-marktplaats is een uur echte verkenning waard. Plugins breiden de mogelijkheden van Claude uit op gerichte, combineerbare manieren — installeer ze zoals browser-extensies, gebruik ze wanneer relevant, negeer ze anders. De front-end design skill plugin is de plugin die mijn UI-output het meest merkbaar heeft veranderd. Standaard Claude schrijft functionele UI-code. De plugin schrijft doordachte UI-code — goede ruimtehiërarchieën, samenhangende componentstructuur, hover-states die werkelijk intentioneel aanvoelen. Het verschil is in dertig seconden zichtbaar als je de uitvoer naast elkaar bekijkt. Ik ben gestopt met het schrijven van UI zonder die plugin.

Superpowers is de overkoepelende feature voor workflows op een hoger niveau: brainstormsessies met sub-agents, code reviews die echte redenering over beslissingen bevatten (niet alleen "dit ziet er goed uit"), debuggen dat uitvoeringspaden traceert in plaats van alleen oplossingen voor te stellen, en test-driven development waarbij falende tests worden geschreven voordat enige implementatie begint. De code review superpower is voor mij verplicht geworden voordat een PR ingediend wordt. Vorige week pakte het twee bugs op die mijn handmatige review had gemist — beide edge cases in async foutafhandeling die in productie zouden zijn opgedoken onder specifieke timingomstandigheden. Eén ervan zou een slechte klantgerichte fout zijn geweest. Ik heb die bug niet geschreven. Claude vond hem. We staan aan dezelfde kant.

Work trees verdienen een specifieke vermelding omdat ze het vangnet zijn voor alles wat agressief is. Wanneer Claude werkt in een work tree, opereert het op een geïsoleerde kopie van je repository. Je hoofdbranch blijft volledig onaangeroerd totdat je expliciet samenvoegt. Bekijk de diff, neem wat je wilt, laat wat je niet wilt. Ik begin standaard work trees te gebruiken voor elke taak waarbij ik nog niet zeker weet hoe de uitvoer eruit moet zien — wat de meeste taken zijn.

Lokale versus cloud versus SSH-uitvoering is de laatste infrastructuurlaag. Lokale agents draaien op je machine — ze hebben je machine nodig die aan en verbonden is. Cloud-agents draaien op Anthropic's infrastructuur — ze blijven werken nadat je je laptop sluit. SSH-verbindingen laten je Claude Code richten op een externe server of VPS en dezelfde workflow ertegen uitvoeren vanuit de desktop-app. Ik gebruik SSH-sessies om routineonderhoud op een staging-omgeving af te handelen. Stel de sessie in, laat de agent lopen, kom terug bij een voltooide taak. Die mogelijkheid bestond in geen coherente vorm voor deze app.

En hier komen we bij het deel dat mijn outputsnelheid echt veranderde.


De Multi-Agent Workflow Die Verdubbelt Wat Je Oplevert

Hier is de realisatie waar ik naartoe wilde.

Ik bouwde een web-app voor het genereren van thumbnails — een tool die ik Thumb Forge noem, ontworpen om YouTube-thumbnails te genereren met een beeldgeneratie-API. Drie tracks van werk moesten plaatsvinden: backend API-integratie, UI-implementatie, en QA-testen. Mijn standaard instinct was om ze te sequentiëren. API eerst, dan UI, dan testen. Vijf of zes dagen voor een solo-developer als ik hard doorwerkte.

Wat ik in plaats daarvan deed: ik opende drie sessies parallel.

Sessie één startte in Planning Mode. Ik uploadde de relevante API-documentatie, beschreef de beoogde gebruikersworkflow, en liet Claude verhelderende vragen stellen over edge cases. Een van die vragen — over hoe om te gaan met verschillende beeldresoluties (1K, 2K, 4K) in de API-respons — was iets wat ik niet expliciet had doordacht. We losten het op in de planning voordat we een regel code schreven. Die sessie duurde twintig minuten en elimineerde een klasse van beslissingen die me mid-implementatie zouden hebben vertraagd.

Sessie twee verzorgde de backend-implementatie lokaal, in Auto Accept Edits-modus. Ik gaf het het implementatieplan van sessie één, de relevante omgevingsvariabelen (handmatig toegevoegd aan .env.local — meer hierover zo), en een beschrijving van het verwachte API-gedrag. Het scaffolde de projectstructuur, bekabelde de API-integratie, verwerkte foutstatussen. Wanneer het de developmentserver wilde starten, vroeg het; ik keurde goed. Fouten verschenen in serverlogs; Claude las ze, traceerde de oorzaak, stelde een oplossing voor, ik keurde goed. Die debuglus liep misschien vier keer voordat de backend schoon was. Ik beoordeelde diffs bij elk controlepunt. Niets verraste me.

Eén fout valt in het bijzonder op omdat het iets illustreert dat de moeite waard is te begrijpen over hoe deze workflow verschilt van een traditionele debugsessie. De API-aanroep retourneerde een 400 met een JSON-body die een unsupported_model-veld bevatte — niet onmiddellijk duidelijk uit alleen de foutmelding. In een normale workflow zou ik het log lezen, de foutcode opzoeken, de documentatie raadplegen, een fix proberen. Claude las het log, kruisrefereerde de API-documentatie die het in context had, identificeerde dat ik een modelidentificator had doorgegeven met het verkeerde versie-achtervoegsel, genereerde de gecorrigeerde aanroep, en voerde de test opnieuw uit — alles in één ononderbroken cyclus. Ik keek naar de terminal. Totale tijd van fout naar oplossing: ongeveer negentig seconden.

Sessie drie liep in de cloud — een UI-herontwerpingssessie met de front-end design skill plugin. Ik zette dit op voordat ik ging lunchen. De cloud-agent werkte terwijl ik offline was. Toen ik terugkwam, wachtte een pull request met een volledige wijzigingssamenvatting en voor/na-screenshots van de interface. Ik beoordeelde het, maakte twee kleine aanpassingen, en voegde samen.

Twee parallelle werktracks die ik had geschat op vijf of zes sequentiële dagen namen er twee. En de uitvoerkwaliteit was hoger dan mijn sequentiële werk doorgaans produceert, omdat elke agent gefocuste context had in plaats van de cognitieve overhead die het menselijk oordeel aantast tijdens een lange sessie.

Het kritieke implementatiedetail dat dit liet werken: elke agent kreeg uitgebreide context vooraf. Geen vage beschrijvingen — specifieke informatie. De bestaande codestructuur voor bestanden die het zou aanraken. Relevante documentatiesecties, niet alleen links. Beperkingen die niet vanzelfsprekend waren uit de taakomschrijving. Foutmeldingen die ik al had gezien. Het verschil tussen een goed-gecontextualiseerde agent en een slecht-gecontextualiseerde is niet incrementeel — het is het verschil tussen iets dat je oplevert en iets dat je herschrijft.

Over API-sleutelbeheer: ik voegde de Gemini API-sleutel handmatig toe aan .env.local. Ik liet Claude het niet schrijven. Dit gaat niet over wantrouwen — het gaat over het handhaven van een enkele bron van waarheid die ik expliciet beheer. Claude moet werken met omgevingsvariabelen die al bestaan; het mag niet de entiteit zijn die secrets aanmaakt of beheert. Dit geldt voor elke AI-workflow, niet alleen deze.

De GitHub-integratie sloot de lus. Cloud-agent maakt wijzigingen in een work tree, opent een PR met gedetailleerde wijzigingsdocumentatie, ik beoordeel en voeg samen. Git-geschiedenis blijft schoon. Elke beslissing heeft een gedocumenteerd spoor. De workflow is compatibel met bestaande teampraktijken zonder dat iemand zijn PR-reviewgewoonten hoeft te veranderen.


De Realiteit: Wat Niemand Noemt

Een paar eerlijke dingen die de moeite waard zijn te weten voordat je je volledige ontwikkelworkflow reorganiseert rondom dit gereedschap.

De leercurve is niet de app. De UI is oprecht intuïtief. De leercurve is het heropvoeden van jezelf in het geven van goede instructies.

In mijn eerste week gebruikte ik Claude Code desktop als een iets slimmere terminal. Vage instructies: "maak dit performanter," "ruim de UI op," "fix de auth-flow." De uitvoer was matig. Het uitvoerplafond dat ik in week één bereikte was niet wezenlijk hoger dan wat ik had bereikt met kopiëren-plakken AI-workflows in een browsertabblad.

De verschuiving vond plaats toen ik stopte met het beschrijven van eindtoestanden en agents begon te voorzien van beperkingen, context, en beslissingsbevoegdheid binnen een gedefinieerd bereik. "Maak de UI er beter uitzien" is een slechte prompt. "Refactor het thumbnail-generatieformulier naar een tweekolom-indeling — invoer links, preview rechts — met behulp van bestaande Tailwind-klassen, behoud het huidige kleurenschema, voeg een laadstatus toe aan de generatieknop, en raak de formuliervalidatielogica niet aan" is een goede prompt. Zelfde intentie. Dramatisch ander resultaat.

Het tweede dat ik moest afleren: agents onderbreken midden in een taak. Wanneer Claude werkt aan een complexe taak in Auto Accept-modus, is de impuls om elke vijf minuten in te grijpen. Weersta die impuls. Onderbrekingen breken de werkcontext van de agent en produceren consistent slechtere resultaten dan het laten lopen tot een natuurlijk controlepunt en de diff beoordelen. Vertrouw de work tree. Beoordeel bij voltooiing, niet tussentijds.

Derde eerlijke bekentenis: cloud-agents zijn krachtig maar niet onfeilbaar. Ik heb cloud-agents gehad die terugkwamen met PRs die 80% van een taak oplosten en één subtiele edge case introduceerden. Het beoordelen van agent-PRs moet minstens even rigoureus zijn als het beoordelen van PRs van een junior developer in je team. De waarde is de parallelle uitvoering — de verantwoordelijkheid voor correctheid is nog steeds van jou.

En YOLO-modus verdient specifieke eerlijkheid: vers wegwerpprototype zonder productieverbindingen is prima. Productiebranch verbonden met je hoofdrepository verdient zorgvuldig denken, goede work tree-setup en een terugrolplan.


Wat de Cijfers Laten Zien Na Acht Weken

Ik heb de output bijgehouden over projecten heen since ik mijn primaire workflow heb omgeschakeld, dus laat me je echte data geven.

Middelmatig complexe web-app-doorlooptijd — authenticatie, API-integratie, basis UI, deployment-configuratie — gemiddeld voorheen 8-12 dagen voor solo-development. Huidig gemiddelde: 3-4 dagen. Dat is geen marginale winst. Het is het verschil tussen 4 projecten per maand opleveren en 8-12 opleveren.

Code review-vangsten: de code review superpower markeert consistent async edge cases en inconsistente foutafhandeling over vergelijkbare functies — een categorie die mijn handmatige review met een merkbare frequentie mist. Twee gevangen bugs vorige week. Beide zouden productie hebben bereikt zonder dit.

Context-switching geëlimineerd: ik had gemiddeld 7-8 toepassingsvensters open tijdens een ontwikkelsessie. Huidig: één. De cognitieve lastreductie heeft een echt effect op de kwaliteit van de beslissingen die ik neem in de latere uren van een sessie.

Waar de winsten kleiner zijn: beveiligingsgevoelige code en complexe bedrijfslogica die sequentiële, doelbewuste menselijke beslissingen vereist. Op die taken zijn de winsten reëel maar bescheiden — 30-40% sneller.


De Verschuiving Die Al Plaatsvindt

Wat ik wil dat je overdenkt: dit gaat niet over één tool die beter is dan een andere. Het gaat over een ander model voor hoe software wordt gebouwd.

Traditionele IDEs zijn ontworpen vanuit de aanname dat jij de code schrijft. Alles erin optimaliseert voor jou als primaire auteur. Claude Code desktop is ontworpen vanuit de aanname dat een AI-agent het grootste deel van het implementatiewerk verwerkt, en jij de richting bepaalt, beoordeelt en de beslissingen neemt die oordeel vereisen. Dat is een fundamenteel andere relatie tussen developer en tool.

De developers die hier echt goed in worden — die leren beperkingen te schrijven in plaats van vage beschrijvingen, die parallelle werklast intentioneel structureren, die agent-output beoordelen met gepaste nauwkeurigheid — die developers opereren niet op een iets hogere versie van hetzelfde spel. Ze doen iets kwalitatief anders.

Dus hier is je specifieke uitdaging: kies één project dat je hebt uitgesteld omdat het te groot voelde om solo aan te pakken. Start deze week een Claude Code desktop-sessie. Besteed de eerste dertig minuten in Planning Mode — vraag Claude niet iets te bouwen, denk gewoon samen de architectuur door. Stel dan de juiste context in en laat het lopen.

Ik verwijderde VS Code drie weken geleden. Ik mis het niet. Dat is niet iets wat ik had verwacht te zeggen — en het is niet iets wat ik zou zeggen als het niet waar was.


Laten We Samenwerken

Wil je AI-systemen bouwen, workflows automatiseren of je tech-infrastructuur opschalen? Ik help je graag.

Coffee cup

Vond u dit artikel leuk?

Uw steun helpt mij meer diepgaande technische content, open-source tools en gratis bronnen voor de ontwikkelaarsgemeenschap te maken.

Gerelateerde onderwerpen

Engr Mejba Ahmed

Over de auteur

Engr Mejba Ahmed

Engr. Mejba Ahmed builds AI-powered applications and secure cloud systems for businesses worldwide. With 10+ years shipping production software in Laravel, Python, and AWS, he's helped companies automate workflows, reduce infrastructure costs, and scale without security headaches. He writes about practical AI integration, cloud architecture, and developer productivity.

Discussion

Comments

0

No comments yet

Be the first to share your thoughts

Leave a Comment

Your email won't be published

2  +  8  =  ?

Blijf leren

Gerelateerde artikelen

Alles bekijken

Comments

Leave a Comment

Comments are moderated before appearing.