#Hosting · 4 Min. Lesezeit · Tim Rinkel

VERCEL-HAMMER! KI-Tool Context AI bricht JETZT ein – Hacker tunneln Supply-Chain-Lücke aus!

VERCEL-HAMMER! KI-Tool Context AI bricht JETZT ein – Hacker tunneln Supply-Chain-Lücke aus!

Wer als Entwickler auf Vercel deployt, hat oft Context AI als Helper integriert – ein Coding-Assistant für Pull-Request-Kontext. Genau diese Hilfsbeziehung ist zur Falle geworden. Am 19. April 2026 hat Vercel einen Security-Incident bestätigt, ausgelöst durch einen Komplettangriff auf Context AI.

HAMMER: Lumma-Stealer fing den ersten Domino

Der Angriff begann im Februar 2026 mit einer Lumma-Stealer-Infektion bei Context AI. Lumma ist ein klassischer Infostealer, der Zugangsdaten und OAuth-Tokens aus Browsersitzungen einsaugt. Die Beute: Google-Workspace-OAuth-Tokens von Context-Mitarbeitern, dazu Keys für Supabase, Datadog, Authkit – und der berüchtigte Account support@context.ai.

Mit diesen Tokens kletterte der Angreifer in das Google-Workspace eines Vercel-Mitarbeiters, der Context AI im Alltag nutzte. Von dort aus wurde sein Vercel-Konto übernommen – und der Tunnel ins Vercel-Backend war offen.

SCHOCK: Nicht-sensible Env-Vars wurden ENTSCHLÜSSELT

Sobald der Angreifer im Vercel-Workspace war, hat er Umgebungsvariablen aufgezählt und entschlüsselt – allerdings nur die, die Vercel als „nicht sensibel“ klassifiziert hatte. Der Witz dabei: für „nicht sensibel“ ist at-rest-Encryption nicht erzwungen. Für einen internen Angreifer waren die Variablen damit klartextlesbar.

Wichtig zu wissen: npm-Pakete von Vercel sind sauber. Vercel, GitHub, Microsoft, npm und Socket haben gemeinsam bestätigt, dass kein Lieferketten-Paket manipuliert wurde. Dein next, dein @vercel/og, alles unverdächtig.

UNGLAUBLICH: Datenbank steht für 2 MIO. DOLLAR im Forum

Auf BreachForums wurde nach dem Vorfall ein angeblicher Vercel-DB-Auszug für 2 Millionen US-Dollar ausgeschrieben. Vercel selbst hat die Reichweite kleingeredet, aber das Auftauchen reicht aus, um nervös zu werden – wer auf Vercel hostet, sollte alle exponierten Variablen rotieren.

SO checkst du JETZT, ob du betroffen bist

  1. Im Vercel-Dashboard alle Environment Variables auflisten und in „sensitive“ und „nicht sensitive“ trennen.
  2. Alle nicht-sensiblen Variablen rotieren – inklusive API-Keys für Drittanbieter, die dort liegen.
  3. Audit-Logs der letzten 60 Tage auf untypische Lese-Operationen prüfen, vor allem unbekannte IPs.
  4. Dritte OAuth-Apps in Google Workspace und im Vercel-Account auf minimalen Scope reduzieren.

EXTRA-TIPP: Lass deine Tokens mit Github-Secret-Scanning gegenchecken

Wenn du Vercel-Env-Vars auch in GitHub Secrets hast, dreh GitHub Secret Scanning auf maximaler Stufe. Im Zweifelsfall alle Tokens mit jüngerem Erstellungsdatum als Februar 2026 als kompromittiert behandeln und neu generieren.

FAZIT: Supply-Chain-Sicherheit ist KEINE Vendor-Eigenheit mehr

Der Vercel/Context-Vorfall ist ein Schulbuch-Beispiel für AI-Supply-Chain-Risiken. Ein einziges KI-Helferlein reicht, damit ein Lumma-Sample auf einem fremden Laptop deine Production-Variablen ans Tageslicht zerrt. Die Lehre: jede OAuth-App, die du mit deinem Workspace verbindest, ist eine potenzielle Hintertür. Audit deinen App-Garten heute.

Häufige Fragen

Welche Versionen sind betroffen?
Der Angriff zielt nicht auf eine Software-Version, sondern auf die OAuth-Vertrauensbeziehung zwischen Context AI und einem Vercel-Mitarbeiterkonto. Vercel-Pakete in npm sind nachweislich sauber. Wer Context AI mit seinem eigenen Workspace verbunden hat, sollte die OAuth-Erlaubnis sofort prüfen und gegebenenfalls widerrufen.
Wie merke ich, ob mein System verwundbar ist?
Schau im Vercel-Dashboard nach, welche Env-Vars als „nicht sensitive“ markiert sind – diese waren angreifbar. Schau in Google Workspace unter „Sicherheit → Drittanbieter-Apps“, ob Context AI Zugriff hat. Prüf in Vercel-Audit-Logs ungewöhnliche Lese-Operationen seit Februar 2026 und vergleich IPs mit deinen üblichen Standorten.
Wie behebe ich das Problem konkret?
Drei Schritte. Erstens: alle Env-Vars rotieren, vor allem die nicht-sensiblen. Zweitens: Drittanbieter-OAuth-Apps in Google Workspace und Vercel auf das absolute Minimum kürzen oder ganz entfernen. Drittens: GitHub Secret Scanning hochziehen, alle Tokens mit Erstellungsdatum nach Januar 2026 als potenziell exponiert behandeln und neu generieren.
Gab es schon aktive Angriffe?
Ja. Threat-Acteure haben angeblich eine Vercel-Datenbank für 2 Millionen US-Dollar auf BreachForums angeboten. Vercel hat das Material als „begrenzt“ eingestuft, aber der Tunnel selbst (OAuth → Workspace → Vercel) wurde aktiv genutzt. Wer Context AI angebunden hat, muss von einem realen Angriffsvektor ausgehen, nicht von einem theoretischen.

Quellen

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert