Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
RT for å hjelpe Simon med å øke bevisstheten om raske injeksjonsangrep i LLM-er.
Føles litt som det ville vesten av tidlig databehandling, med datavirus (nå = ondsinnede meldinger som gjemmer seg i nettdata/verktøy), og ikke velutviklede forsvar (antivirus, eller et mye mer utviklet kjerne/brukerrom-sikkerhetsparadigme der f.eks. en agent får veldig spesifikke handlingstyper i stedet for muligheten til å kjøre vilkårlige bash-skript).
Konfliktfylt fordi jeg ønsker å være en tidlig bruker av LLM-agenter i min personlige databehandling, men mulighetens ville vest holder meg tilbake.

16. juni 2025
If you use "AI agents" (LLMs that call tools) you need to be aware of the Lethal Trifecta
Any time you combine access to private data with exposure to untrusted content and the ability to externally communicate an attacker can trick the system into stealing your data!

Jeg bør presisere at risikoen er høyest hvis du kjører lokale LLM-agenter (f.eks.
Hvis du bare snakker med en LLM på et nettsted (f.eks. ChatGPT), er risikoen mye lavere *med mindre* du begynner å slå på Connectors. For eksempel så jeg nettopp at ChatGPT legger til MCP-støtte. Dette vil kombineres spesielt dårlig med alle de nylig lagt til minnefunksjonene - for eksempel forestill deg at ChatGPT forteller alt den vet om deg til en angriper på internett bare fordi du krysset av i feil boks i Connectors-innstillingene.
385,96K
Topp
Rangering
Favoritter