Community · Intermediate

wshobson/agents: een toolkit met 184 agents en 78 plugins

Wat deze skill doet

wshobson/agents op GitHub
Bron: github.com/wshobson/agents

wshobson/agents is het dichtstbijzijnde ding bij een app store voor Claude Code: 184 gespecialiseerde agents, 150 skills, 98 commands, verdeeld over 78 plugins. Elk plugin focust op één ding — Python, Kubernetes, security, React, SEO — en laadt alleen zichzelf in Claude's context. Gemaakt door Seth Hobson, door Anthropic genoemd als early adopter in de plugins-lancering. ~33.800 sterren begin 2026.

De filosofie is pragmatisch: niemand heeft zin om voor elke taal zelf agents te schrijven. wshobson heeft dat werk gedaan, en de bundels zijn expliciet getuned voor Opus 4.7 + Sonnet 4.6 + Haiku 4.5 om kosten en snelheid te optimaliseren.

Hoe het werkt

Je voegt eerst de marketplace toe: /plugin marketplace add wshobson/agents. Dan installeer je per domein:

  • /plugin install python-development — 3 Python-agents (python-pro, django-pro, fastapi-pro), scaffolding, 16 skills. Samen ~1000 tokens in Claude's context
  • /plugin install kubernetes-operations — DevOps
  • /plugin install security-scanning — SAST en security audits
  • /plugin install full-stack-orchestration — multi-agent workflow

Naast de losse plugins zit er een kwaliteitsmeter bij (plugin-eval) met 10 dimensies en Platinum/Gold/Silver/Bronze-badges. En agent-teams, waarmee je zeven vooraf-geconfigureerde teams kunt inzetten (review, debug, feature, fullstack, research, security, migration) om parallel aan één probleem te werken.

Wat gebruikers ervaren

Byren Cheema (Medium): "44 production-ready specialists covering the entire development lifecycle. Ik heb een dashboard-build teruggebracht van twee weken naar vier uur."

GitHub Discussion #73 (chiefMarlin): "Claude CLI gebruikt de agents niet vanzelf, voor elke stap moet je expliciet zijn."

Reactie van ehansonddh: "Je moet expliciet zijn of het gebeurt niet."

GitHub Discussion #42 (albanx): "De agents zijn te breed en te generiek. Een agent moet heel gespecialiseerd zijn om goed resultaat te geven." Hij noemt beschrijvingen als "React component architecture (hooks, context, performance)" onvoldoende.

GitHub Issue #24 (johnib) over code-reviewer: "Iemand veranderde een paar framework-settings, iets dat nooit door een menselijke review zou komen — en de agent zei er niets van."

Bekende problemen met token-verbruik

  • Issue #413: drie plugins (comprehensive-review, tdd-workflows, code-documentation) bevatten een identiek code-reviewer.md-bestand. Wie ze alle drie installeert verspilt ~4200 tokens aan dezelfde agent-definitie
  • Issue #93: een gebruiker installeerde "alle subagents" en kwam uit op 404.000 tokens aan cumulatieve agent-beschrijvingen — meer dan de context. Claude Code weigerde commando's uit te voeren totdat hij plugins ontinstalleerde
  • Issue #493 (april 2026): 19 registratie-fouten verdeeld over 9 plugins, momenteel open

Tips die werken

  • Installeer één plugin per domein, niet de hele marketplace. Je context is kostbaarder dan je denkt
  • Wees expliciet welke agent je wilt. Claude routeert niet automatisch — je moet zeggen "gebruik de fastapi-pro agent"
  • Stack-combinaties die vaak genoemd worden: python-development + agent-teams + security-scanning voor backends; kubernetes-operations + agent-teams voor DevOps
  • Voor grotere context-problemen: VoltAgent's airis-mcp-gateway wordt genoemd als extra context-filter (naar verluidt 97% token-reductie)

Kritiek

  • Kwaliteit is inconsistent over 184 agents. Niet alles is even goed uitgewerkt
  • Code-reviewer mist evidente problemen (framework-setting changes, bijvoorbeeld)
  • Duplicatie tussen plugins — je kunt dezelfde agent per ongeluk meerdere keren laden
  • Auto-routing werkt niet goed — gebruikers moeten agents expliciet aanroepen
  • "Te veel"-moeheid: voor wie een kleinere gecureerde set wil is VoltAgent's awesome-claude-code-subagents een alternatief

Is plugin-eval al een standaard?

Nog niet. PluginEval is goed gedocumenteerd (Platinum → Bronze badges, anti-pattern detectie voor OVER_CONSTRAINED, BLOATED_SKILL, DEAD_CROSS_REF) en er zijn forks (kiri2sama/agents_claude_plugin, sjnims/cc-plugin-eval) die het framework gebruiken. Maar er is geen publiek bewijs van teams die plugin-eval-scores gebruiken als merge-gate. Voor nu is het interne QA, geen ecosystem-standaard.

Wanneer je hem inzet

  • Stack-specifieke expertise zonder zelf agents te bouwen
  • Teams die willen dat iedereen dezelfde agent-setup gebruikt
  • Grotere workflows zoals security hardening, ML-setup, of full-stack features
  • Experimenteren met agent-teams voor parallel werk aan één probleem
  • Niet geschikt voor: minimalistische setups, repo's waar context-budget krap is, wie liever een kleine handgekozen set agents beheert

Prompt template

# Eerst marketplace toevoegen
/plugin marketplace add wshobson/agents

# Dan specifieke plugins installeren
/plugin install python-development
/plugin install kubernetes-operations
/plugin install security-scanning

# Of een multi-agent workflow
/plugin install full-stack-orchestration
/plugin install agent-teams

# Plugin-kwaliteit evalueren
/plugin install plugin-eval

Voorbeeld

Input

# Met python-development geïnstalleerd:
"Bouw een FastAPI endpoint dat user registrations verwerkt. Include tests."

Output

Met de python-development-plugin geladen pakt fastapi-pro de taak op. Hij:

  • Gebruikt dependency injection voor de database-session (niet een globale)
  • Valideert met een Pydantic-model i.p.v. losse veld-checks
  • Splitst de route in controller + service layer
  • Schrijft pytest-tests met httpx.AsyncClient, niet het synchrone TestClient
  • Zet correct de 201 status-code bij succesvolle creatie

Duidelijk conventioneler dan wat een generieke Claude zou doen, omdat de Python-agents de FastAPI-conventies expliciet mee hebben gekregen.

← Terug naar alle skills