Googles EmbeddingGemma für KI auf Geräten

| Von Dennis Mark |

Google DeepMind hat EmbeddingGemma veröffentlicht, ein neues Mitglied der Open-Source-Gemma-Modellfamilie, das effizient genug ist, um auf Verbrauchergeräten zu laufen und Apps das Suchen und Verstehen von Text in über 100 Sprachen ohne Internet ermöglicht.

Im Detail:
Das Modell arbeitet schnell genug für Echtzeit-Antworten und verbraucht weniger Speicher als eine Foto-App, was es für Smartphones und Laptops praktikabel macht. Google hat es entwickelt, um Offline-Suchen in persönlichen Dateien, Nachrichten und E-Mails zu ermöglichen, wobei sensible Daten auf dem Gerät bleiben, anstatt in die Cloud gesendet zu werden. Entwickler können die Präzision des Modells je nach Bedarf anpassen und zwischen Genauigkeit oder schnelleren Geschwindigkeiten wählen. Das System ist bereits in gängige Entwicklertools integriert und läuft direkt in Webbrowsern, was datenschutzorientierte Apps ermöglicht, die vollständig offline funktionieren.

Warum es wichtig ist:
Googles Timing positioniert Modelle wie EmbeddingGemma als kritische Infrastruktur für die kommende Welle von KI-Agenten und Assistenten auf Geräten, die eine neue Klasse datenschutzorientierter Offline-Apps ermöglichen. Jede On-Device-Veröffentlichung von Google weckt nun zusätzliches Interesse, angesichts der möglichen Ambitionen, Siri mit Strom zu versorgen.

Quelle: Google DeepMind

Artikel teilen

#google #apps #offline #deepmind #embeddinggemma #genug #suchen #ermöglicht
← Zurück zum Blog