Kurzor + Github MCP může vést k úniku soukromých klíčů 💀 Nejen však Cursor. Všechna prostředí IDE s umělou inteligencí jsou vůči tomuto typu útoku zranitelná. Základní problém: Agenti umělé inteligence na kurzoru se řídí vašimi příkazy, nikoli vaším zdravým rozumem. S nic netušícím problémem na GitHubu se nám podařilo exfiltrovat všechny soukromé klíče. Zde je návod, jak exploit funguje: 1. Útočník odešle problém na GitHubu, který vypadá legitimně s výzvou k útěku z vězení ve spodní části. 2. Čekal, až oběť požádá kurzor, aby se podíval na problémy GitHubu pro dané úložiště 3. Kurzor přečte problém GitHub s jailbreakem. Nyní je kurzor unesen útočníkem a bude jednat na příkaz útočníka. Může prohledat CELOU vaši kódovou základnu a odeslat citlivá data (kód, soukromé klíče) do problému GitHub, který je otevřený pro útočníka k krádeži. Cursor se snažil tuto skutečnost co nejlépe chránit a vyžaduje ruční lidské schválení pro každou akci, kterou agent provede. Únava z rozhodování je však skutečná věc, a jak se kódovací agenti zlepšují, lidé jim začínají slepě důvěřovat, zapínají "režim YOLO" nebo jen klikají na schválit, schválit, schválit. To je důvod, proč jsme vytvořili OpenEdison od @edison_watch: Open source AI Agent Firewall. Nechte svého agenta provozovat YOLO bezpečně, nechte agenta pracovat. Blokujeme/varujeme před nebezpečnými MCP hovory pouze v případě, že je to nezbytně nutné, abychom se vyhnuli únavě z rozhodování. Pamatujte, že umělá inteligence může být super chytrá, ale může být oklamána a phishingována neuvěřitelně hloupými způsoby, aby unikla vaše data. Kurzor + MCP představuje vážné bezpečnostní riziko, pokud vývojáři nejsou opatrní 🤔 Zajímají vás další zneužití umělé inteligence v reálném světě, která by se vám mohla stát? Máme seznam zneužití AI s běžnými konektory MCP. Komentář "AI Exploits" získat přístup k soukromému seznamu a naučit se, jak se udržet v bezpečí!