Latest News

Tether QVAC bringt KI-Training auf Smartphones und Consumer-GPUs

Tethers QVAC-Plattform ermöglicht KI-Training auf Smartphones und Consumer-GPUs – was das BitNet-Framework für Crypto-KI bedeutet, Stand März 2026.

Tether QVAC bringt KI-Training auf Smartphones und Consumer-GPUs

Das Wichtigste in Kürze

  • Tether QVAC hat ein plattformübergreifendes KI-Trainingsframework auf Basis von Microsofts BitNet-Architektur und LoRA-Feinabstimmungstechniken veröffentlicht
  • Der VRAM-Bedarf sinkt um bis zu 77,8% im Vergleich zu herkömmlichen 16-Bit-Modellen, wodurch Training auf Consumer-Hardware möglich wird
  • Tether-Ingenieure haben Modelle mit bis zu 1 Milliarde Parametern auf Smartphones in unter zwei Stunden feinabgestimmt
  • Das Framework unterstützt Modelle mit bis zu 13 Milliarden Parametern auf mobilen Geräten, mit Chip-Unterstützung für AMD, Intel, Apple Silicon, Qualcomm und Apple Mobile-GPUs

Tether QVAC — die KI-Infrastruktursparte des weltgrößten Stablecoin-Emittenten — hat am Dienstag ein neues Open-Source-Framework vorgestellt, mit dem Entwickler große Sprachmodelle auf Smartphones, AMD-Chips und Apple Silicon feinabstimmen können, ganz ohne Nvidia. Es ist eine direkte Herausforderung an die Annahme, dass ernsthafte KI-Entwicklung Serverracks und Cloud-Rechnungen erfordert.

Was ist Tether QVAC und was macht es eigentlich?

Das Tether QVAC-Framework ist ein plattformübergreifendes KI-Trainingssystem, das zwei Techniken einsetzt, um die Hardwareanforderungen drastisch zu senken: Microsofts BitNet-Architektur und LoRA, eine Methode zur effizienten Feinabstimmung vortrainierter Modelle mit minimalen zusätzlichen Parametern. Zusammen ermöglichen sie es Entwicklern, große Sprachmodelle für spezifische Aufgaben anzupassen — ohne den enormen Rechenaufwand, der KI-Training normalerweise außerhalb gut finanzierter Labore unzugänglich macht.

Die praktischen Zahlen sind beeindruckend. Tethers eigene Ingenieure haben Modelle mit bis zu 1 Milliarde Parametern auf Smartphones feinabgestimmt — in unter zwei Stunden. Kleinere Modelle brauchten nur Minuten. Das System verarbeitet auch Modelle mit bis zu 13 Milliarden Parametern auf mobiler Hardware, was Fähigkeiten, die einst Rechenzentren vorbehalten waren, buchstäblich in die Handfläche legt.

Auf der Speicherseite reduziert die BitNet 1-Bit-Architektur den VRAM-Verbrauch um bis zu 77,8% im Vergleich zu vergleichbaren 16-Bit-Modellen, so Tether. Genau das macht das Ganze auf Consumer-Hardware erst möglich — keine theoretischen Effizienzgewinne, sondern eine reale, messbare Reduktion der Speicherbarriere, die die meisten Menschen daran hindert, anspruchsvolle KI-Workloads auszuführen.

Auf welcher Hardware läuft es?

Die Liste unterstützter Chips ist bewusst breit gefächert — und liest sich wie ein Affront gegen Nvidias Vormachtstellung auf dem KI-Trainingsmarkt. QVAC unterstützt AMD, Intel und Apple Silicon auf der Desktop-Seite sowie mobile GPUs von Qualcomm und Apple auf der Smartphone-Seite. Das deckt die überwältigende Mehrheit der heute im Umlauf befindlichen Consumer-Geräte ab.

Die Inferenzleistung auf mobilen GPUs mit BitNet-Modellen sei laut Tether mehrfach schneller als die reine CPU-Ausführung. Das Unternehmen hob auch Federated Learning als wichtigen Anwendungsfall hervor — ein Konzept, bei dem KI-Modelle über verteilte Geräte aktualisiert werden, ohne Nutzerdaten über zentrale Server zu leiten. Das ist offensichtlich attraktiv für datenschutzbewusste Einsatzszenarien und für Situationen, in denen Cloud-Latenz oder -Kosten zum Engpass werden.

Dazu kommt On-Device-Training. Die Vorstellung, dass ein einzelnes Smartphone ein Modell inkrementell trainieren kann — lokale Daten einbeziehen, Gewichtungen aktualisieren, ohne nach Hause zu funken — ist in dieser Größenordnung wirklich neuartig. Ob Entwickler tatsächlich Produktionssysteme darauf aufbauen, ist eine andere Frage, aber die architektonische Tür ist jetzt offen.

Warum baut ein Stablecoin-Unternehmen KI-Infrastruktur?

Berechtigte Frage. USDT-Emittent Tether — Betreiber des weltweit größten Stablecoins nach Marktkapitalisierung — positioniert sich schon seit geraumer Zeit weit über Zahlungsinfrastruktur hinaus. Die QVAC-Plattform ist das bislang deutlichste Signal, dass das Unternehmen KI-Compute als Kerninfrastruktur betrachtet, nicht als Nebenprojekt.

Tether ist mit diesem Schwenk nicht allein. Der breitere Trend an der Schnittstelle von Krypto und KI gewinnt seit über einem Jahr an Dynamik. Im September 2024 übernahm Google eine 5,4%-Beteiligung an Cipher Mining im Rahmen eines $3 Milliarden schweren, zehnjährigen Deals für KI-Rechenzentrumskapazitäten. Im Dezember 2024 kündigte der Bitcoin-Miner IREN Pläne an, rund $3,6 Milliarden für KI-Infrastruktur aufzubringen. Dann verzeichnete HIVE Digital Technologies im Februar 2026 einen Rekordumsatz von $93,1 Millionen, angetrieben durch KI und Hochleistungsrechnen. Core Scientific folgte im März 2026 mit der Sicherung einer $500 Millionen Kreditfazilität von Morgan Stanley — mit Option auf Erweiterung auf $1 Milliarde.

Das Muster ist unverkennbar. Mining-Unternehmen stellten fest, dass die Hardware und der günstige Strom, die sie für Bitcoin aufgebaut hatten, für GPU-Compute umgewidmet werden konnten. Tethers Ansatz ist anders — das Unternehmen kommt von der Softwareseite an KI heran und versucht zu demokratisieren, wer am Modelltraining teilnehmen kann, anstatt nur Serverkapazitäten zu vermieten. Man könnte es eine Bottom-up-Strategie nennen, im Gegensatz zu den Top-down-Rechenzentrumskonzepten.

Was das für den KI-Agenten-Boom in der Kryptowelt bedeutet

Das Timing ist kein Zufall. KI-Agenten — autonome Programme, die Transaktionen durchführen, mit Protokollen interagieren und mehrstufige Aufgaben ausführen können — breiten sich derzeit explosionsartig im Kryptosektor aus. Im Oktober 2024 stellte Coinbase eine Wallet-Infrastruktur vor, die KI-Agenten Onchain-Transaktionen ermöglicht. Im Februar 2026 lancierte Alchemy ein System, das Agenten den Zugriff auf Blockchain-Datendienste per USDC auf Base ermöglicht. Pantera und Franklin Templeton traten beide Arena bei, einer Plattform von Sentient zum Testen von Enterprise-KI-Agenten.

Und genau am Dienstag — dem gleichen Tag, an dem Tether das QVAC-Framework vorstellte — startete World, das von OpenAI-Mitgründer Sam Altman mitgegründete Identitätsnetzwerk, AgentKit. Das Toolkit ermöglicht es KI-Agenten zu verifizieren, dass sie an einen einzigartigen Menschen über World ID gebunden sind, während Zahlungen über das x402-Micropayment-Protokoll abgewickelt werden.

Der rote Faden, der all dies verbindet: KI-Agenten müssen irgendwo laufen, und sie auf zentralisierter Cloud-Infrastruktur zu betreiben, bringt Kosten, Latenz und Zensurrisiken mit sich. Ein Framework, das On-Device-Modelltraining und Federated Learning ermöglicht — ohne zentrale Server — fügt sich nahtlos in den Infrastruktur-Stack ein, den autonome Krypto-Agenten benötigen würden. Tether weiß genau, worauf es hinarbeitet.

Häufig gestellte Fragen

Was ist Tether QVAC?

Tether QVAC ist eine KI-Infrastrukturplattform von Tether, dem USDT-Stablecoin-Emittenten. Ihr neuestes Framework ermöglicht es Entwicklern, große Sprachmodelle auf Consumer-Hardware feinabzustimmen — einschließlich Smartphones und Nicht-Nvidia-GPUs — unter Verwendung von Microsofts BitNet-Architektur und LoRA-Techniken, um den Speicherbedarf um bis zu 77,8% zu senken.

Kann man KI-Modelle wirklich auf einem Smartphone trainieren?

Laut Tether ja. Ingenieure haben Modelle mit bis zu 1 Milliarde Parametern auf Smartphones in unter zwei Stunden feinabgestimmt, kleinere Modelle waren in Minuten fertig. Das System unterstützt Modelle mit bis zu 13 Milliarden Parametern auf mobiler Hardware und läuft auf Qualcomm- und Apple-Mobile-GPUs.

Warum senkt Tethers KI-Framework den VRAM-Bedarf?

Das Framework basiert auf BitNet, einer 1-Bit-Modellarchitektur von Microsoft Research. Durch die Komprimierung der Modellgewichte auf 1-Bit-Präzision reduziert BitNet den VRAM-Verbrauch um bis zu 77,8% im Vergleich zu herkömmlichen 16-Bit-Modellen, wodurch größere Modelle auf Hardware mit begrenztem Speicher praktikabel werden.

Welche Chips unterstützt das Tether QVAC-Framework?

QVAC unterstützt AMD, Intel und Apple Silicon auf dem Desktop sowie Qualcomm- und Apple-Mobile-GPUs auf Smartphones. Dieser plattformübergreifende Ansatz erweitert KI-Training und -Inferenz bewusst über das Nvidia-Ökosystem hinaus, das den Großteil der heutigen kommerziellen KI-Infrastruktur dominiert.