banner
Nachrichtenzentrum
Artikuliert und kompetent in ihrem Fachwissen.

Wie Google die ML-Entwicklung beschleunigt

Nov 23, 2023

Treffen Sie vom 11. bis 12. Juli Top-Führungskräfte in San Francisco, um zu erfahren, wie Führungskräfte KI-Investitionen integrieren und optimieren, um erfolgreich zu sein. Erfahren Sie mehr

Die Beschleunigung der Entwicklung von maschinellem Lernen (ML) und künstlicher Intelligenz (KI) bei optimierter Leistung und Kosten ist ein wichtiges Ziel von Google.

Google startete diese Woche seine Next 2022-Konferenz mit einer Reihe von Ankündigungen zu neuen KI-Funktionen in seiner Plattform, darunter Computer Vision as a Service mit Vertex AI Vision und die neue OpenXLA-Open-Source-ML-Initiative. In einer Sitzung auf der Next 2022-Veranstaltung diskutierte Mikhail Chrestkha, Outbound-Produktmanager bei Google Cloud, zusätzliche inkrementelle KI-Verbesserungen, darunter Unterstützung für das Nvidia Merlin-Empfehlungssystem-Framework, AlphaFold-Batch-Inferenz und TabNet-Unterstützung.

[Verfolgen Sie die laufende Berichterstattung von VentureBeat über Google Cloud Next 2022 »]

Benutzer der neuen Technologie erläuterten während der Sitzung ihre Anwendungsfälle und Erfahrungen.

Transformation 2023

Besuchen Sie uns vom 11. bis 12. Juli in San Francisco, wo Top-Führungskräfte erzählen, wie sie KI-Investitionen erfolgreich integriert und optimiert und häufige Fallstricke vermieden haben.

„Der Zugang zu einer starken KI-Infrastruktur wird zu einem Wettbewerbsvorteil, um den größtmöglichen Nutzen aus der KI zu ziehen“, sagte Chrestkha.

TabNet ist ein tiefgreifender Ansatz zum Lernen tabellarischer Daten, der Transformationstechniken verwendet, um Geschwindigkeit und Relevanz zu verbessern.

Chrestkha erklärte, dass TabNet jetzt in der Google Vertex AI-Plattform verfügbar ist, was es für Benutzer einfacher macht, erklärbare Modelle in großem Maßstab zu erstellen. Er wies darauf hin, dass Googles Implementierung von TabNet automatisch die geeigneten Feature-Transformationen basierend auf den Eingabedaten, der Datengröße und dem Vorhersagetyp auswählt, um die besten Ergebnisse zu erzielen.

TabNet ist kein theoretischer Ansatz zur Verbesserung von KI-Vorhersagen; Es handelt sich um einen Ansatz, der in realen Anwendungsfällen bereits positive Ergebnisse zeigt. Zu den ersten Implementierern gehört Uber.

Kai Wang, leitender Produktmanager bei Uber, erklärte, dass eine von seinem Unternehmen geschaffene Plattform namens Michelangelo heute 100 % der ML-Anwendungsfälle von Uber abwickelt. Zu diesen Anwendungsfällen gehören die voraussichtliche Ankunftszeit (ETA) der Fahrt, die geschätzte Ankunftszeit (ETD) von UberEats und die Zuordnung von Fahrgästen und Fahrern.

Die Grundidee von Michelangelo besteht darin, den ML-Entwicklern von Uber eine Infrastruktur zur Verfügung zu stellen, auf der Modelle bereitgestellt werden können. Wang sagte, dass Uber ständig Komponenten von Drittanbietern evaluiert und integriert und gleichzeitig selektiv in wichtige Plattformbereiche investiert, um sie selbst zu entwickeln. Eines der grundlegenden Tools von Drittanbietern, auf die sich Uber verlässt, ist Vertex AI, um das ML-Training zu unterstützen.

Wang wies darauf hin, dass Uber TabNet anhand der realen Anwendungsfälle von Uber evaluiert habe. Ein Beispiel für einen Anwendungsfall ist das Vorbereitungszeitmodell von UberEat, mit dem abgeschätzt wird, wie lange ein Restaurant nach Eingang einer Bestellung für die Zubereitung des Essens benötigt. Wang betonte, dass das Vorbereitungszeitmodell eines der wichtigsten Modelle ist, die heute bei UberEats verwendet werden.

„Wir haben die TabNet-Ergebnisse mit dem Basismodell verglichen und das TabNet-Modell zeigte eine große Steigerung der Modellleistung“, sagte Wang.

Cohere entwickelt Plattformen, die Unternehmen dabei helfen, von den Funktionen der natürlichen Sprachverarbeitung (NLP) zu profitieren, die durch große Sprachmodelle (LLMs) ermöglicht werden.

Auch Cohere profitiert von Googles KI-Innovationen. Siddhartha Kamalakara, ein Ingenieur für maschinelles Lernen bei Cohere, erklärte, dass sein Unternehmen ein eigenes proprietäres ML-Trainings-Framework namens FAX entwickelt habe, das jetzt stark die TPUv4-KI-Beschleunigerchips von Google Cloud nutzt. Er erklärte, dass die Aufgabe von FAX darin bestehe, Milliarden von Token zu verbrauchen und Modelle mit Hunderten von Millionen Parametern bis hin zu Hunderten von Milliarden zu trainieren.

„TPUv4-Pods gehören zu den leistungsstärksten KI-Supercomputern der Welt, und ein vollständiger V4-Pod verfügt über 4.096 Chips“, sagte Kamalakara. „TPUv4 ermöglicht es uns, große Sprachmodelle sehr schnell zu trainieren und den Kunden diese Verbesserungen sofort zur Verfügung zu stellen.“

Die Mission von VentureBeat soll ein digitaler Stadtplatz für technische Entscheidungsträger sein, um sich Wissen über transformative Unternehmenstechnologie anzueignen und Transaktionen durchzuführen. Entdecken Sie unsere Briefings.

Verfolgen Sie die laufende Berichterstattung von VentureBeat über Google Cloud Next 2022 » Die Mission von VentureBeat