Jeg klikket "ja" til memory i Claude Desktop måneder siden. Men først nu ser jeg faktisk hvad det betyder.
Jeg var ved at forske noget, og svarene kom tilbage personaliseret baseret på alt andet jeg har talt med Claude omkring. Modellen ved jeg har arbejdet med Keycloak. Den ved jeg har et Coolify setup. Den puller kontekst fra samtaler på tværs af måneder og sessioner.
Ærligt spørgsmål: er det godt eller dårligt? Jeg er ægte usikker.
På den ene side har jeg altid troet på at stole på det øjeblikkelige svar fra store modeller over min begrænsede viden. Træningsdata spænder hele internettet. Min hjerne har lært nogle hundrede ting dybt. Matematikken favoriserer modellen. Men når modellen bliver vejet ned af alt jeg har påvirket det med på tværs af andre sessioner, ændrer det?
På den anden side er det ægte rart at den husker Keycloak er del af mit toolkit og foreslår løsninger i kontekst uden at jeg skal genstabillisere det hver session.
Den rigtige anxiety er anderledes: jeg tilmeldt mig denne feature uden at tænke særlig hårdt omkring implikationerne. Nu indser jeg jeg har skabt et persistent digitalt skygge af mine interesser, præferencer, og tekniske valg. Det skygge former hver samtale jeg har med denne model fremover.
Hvad betyder det for kvaliteten af min tænkning? Diversiteten af mine løsninger? Uafhængigheden af min problem-løsning?
Jeg har ikke svar endnu. Men jeg burde nok være ved at tænke omkring dem.
Del af #100DaysToOffload dokumentering agentic development i 2026
