November 30, 2021

Citystuff Magazin

Finden Sie alle nationalen und internationalen Informationen zu Deutschland. Wählen Sie im City Stuff Magazin die Themen aus, über die Sie mehr erfahren möchten

Tensor erklärte: Warum hat Google einen benutzerdefinierten Chip für das Pixel 6 entwickelt?

Beim necken des Pixels 6 Anfang August, hat Google die Vorschau um sein erstes individuell konfiguriertes System on Chip (SoC) herum entworfen. Beim heutigen Pixel-Herbst-Event beschrieb Google Tensor ausführlich und nannte es „die größte mobile Hardware-Innovation in der Firmengeschichte“.

Warum Tensor

Googles Ziel bei der Entwicklung von Tensor ist es, das Potenzial von Smartphones zu steigern. Das Unternehmen will „KI-Fortschritte direkt auf den Pixel bringen“ und immer verfügbare Technologien, also Ambient Computing

Ersteres wurde aus der Hardwareabteilung von Google geboren und glaubte, dass KI-gestützte intelligente Funktionen das Pixel von Konkurrenten unterscheiden können, während Google Telefone als „das zentrale Steuergerät eines Ökosystems“ betrachtet. Bezeichnenderweise spricht Google beim Pixel Launch Event erneut über Ambient Computing. Das letzte Mal, dass ein bedeutendes Ereignis aufgetreten ist, war 2019 Pixel-4-Ausgabe.

Im Interview mit An der KanteRick Osterlow sagte, dass die Arbeit 2017 begann, nachdem er erkannt hatte, dass Google keinen so einteiligen Ansatz verfolgen konnte, wie den Bau eines Single-Core-Prozessors, um KI-Modelle zu verbessern. Stattdessen wird ein vollständiger Chip benötigt, der für die gewünschten Aufgaben optimiert ist.

Der Tensor-Chip wurde speziell entwickelt, um die neuesten Entwicklungen von Google direkt auf ein mobiles Gerät zu übertragen. Dies ist ein Bereich, den wir viele Jahre lang blockiert haben, aber jetzt können wir ein neues Kapitel in der Erfindung des KI-gesteuerten Smartphones aufschlagen.

Tensor-CPU + GPU

Auf der Pixel-Launch-Veranstaltung ging Google auf Tensor ein und kündigte die Hinzufügung von zwei leistungsstarken ARM-Cortex-X1-Kernen mit 2,8 GHz an. Verbunden werden sie durch zwei „mittlere“ 2,25 GHz A76 CPU-Kerne Google Silicon-Interview mit Ars Technica Gibt an, wie sie auf einem 5-nm-Prozess basieren und nicht auf dem 7-nm-Original, das letztes Jahr auf primären Telefonchips gefunden wurde. Vier hochkapazitive / kleine A55-Kerne umgeben die CPU.

Siehe auch  Wissenschaftler sagen, dass mysteriöse Radiowellen aus dem Zentrum der Milchstraße kommen

Der Dual-X1-Ansatz ermöglicht es Google, bei mittelintensiven Workloads mehr Leistung bereitzustellen. Auf einer normalen CPU erledigen die Midcores ähnliche Aufgaben wie die visuelle Analyse von Google Lens, sind aber „max“. Google sagt, dass es in dieser Situation effektiver wäre, zwei X1-Kerne zu verwenden, weshalb Tensor optimal ist. Tatsächlich ist es 80% schneller als der Snapdragon 765G des Pixel 5.

„Sie können zwei X1 verwenden, die im Frequenzbereich gewählt werden, also sind sie effizienter, aber sie haben immer noch eine höhere Arbeitsbelastung.

Bill Carmack, VP und GM von Google Silicon

Es gibt auch eine 20-Kern-GPU, von der Google behauptet, dass sie „das Premium-Spielerlebnis für die beliebtesten Android-Spiele bietet“. Es ist 370 % schneller als das Pixel 5, das die Adreno 620 GPU verwendet.

Tensorschutzfüße. Titan M2

Inzwischen ist Tension Security Center eine CPU-basierte Untergruppe, die vom Dienstprogrammprozessor isoliert ist und der Ausführung kritischer Funktionen und Kontrollen gewidmet ist. Es arbeitet mit dem exklusiven Titan M2-Sicherheitschip, der nicht Teil des Tensors ist, aber Flexibilität für fortgeschrittene Angriffe wie Google bietet Elektromagnetisch Analyse, Spannungsblitz, Und Laserfehlerinjektion.

Die Original In Verbindung mit der Titan M-Chip-Software können Sicherheitslücken vorliegen, die verhindern, dass Ihr Telefon auf eine ältere Android-Version zurückgesetzt wird. Dadurch wird verhindert, dass der Bootloader Ihren Sperrbildschirm-Passcode entsperrt und überprüft.

TPU, ISP und Umgebungszentrum

Natürlich gibt es die „Tensor Processing Unit“. Diese ML-Engine soll „von Google Research für Google angepasst worden sein“ und „wo ML-Modelle hingehen, nicht mit dem, wo sie heute sind“.

Der Bildsignalprozessor (ISP) verfügt über einen Beschleuniger, der den HDRNet-Algorithmus ausführt, ein Hauptgrund für die Entwicklung von Pixel 6 und Pixel 6 Pro Live-HDR + Video Bei 4K 60FPS sehr effizient.

Siehe auch  Britney Spears wird nach dem Konservatismus immer noch von Sam Lutfi beschützt

Das Environment Center bringt „maschinelles Lernen in das Ultra-Low-Power-Feld“. Es ist immer auf dem Display (AOD), ermöglicht jetzt Spiele und andere „Umgebungserlebnisse“ „die ganze Zeit zu laufen, ohne den Akku zu entladen“.

Jetzt zusammen oder vielseitiger Computer

Alle diese Komponenten zusammen bilden Tensor, wobei Google „Gesamtleistung und Leistung“ priorisiert. Dies gilt insbesondere für Multicast-Computeraufgaben, bei denen verschiedene Teile des SoC zusammenarbeiten müssen. Zum Beispiel verwendet das Objektiv CPU, GPU, ISP und TPU, um effizient zu laufen.

Da Softwareanwendungen auf Mobiltelefonen komplexer werden, laufen sie auf vielen Teilen des Chips. Es ist ein vielseitiger Computer. Um eine bessere Leistung für diese komplexen Anwendungen zu erzielen, haben wir Entscheidungen auf Systemebene für SoC getroffen. Anstatt einzelne Komponenten auf Höchstgeschwindigkeit hochzurüsten, haben wir dafür gesorgt, dass die verschiedenen Subsysteme innerhalb des Tensors gut funktionieren.

Was kann Tensor tun?

Neben dem Live-HDR+, das Farben auf dem 4K60 präziser und klarer macht, ermöglicht der Tensor weitere rechnerische Foto- und Videofunktionen wie den Bewegungsmodus auf der Google-Kamera. Der Aktionsschwenk verwischt den Hintergrund, während die längere Belichtung in diesem Fall funktioniert (siehe unten).

Währenddessen ist die Gesichtserkennung auf dem Pixel 6 genauer und arbeitet schneller – aufgrund der integrierten Subsysteme, die im Vergleich zum Pixel 5 halb so viel Strom verbrauchen.

Der Assistent bei Tensor verwendet „das fortschrittlichste von Google veröffentlichte Spracherkennungsmodell“ wieder mit halber Leistung. Das hochwertige ASR-Modell (Automatic Speech Recognition) wird zum Transkribieren von Sprachbefehlen sowie in Langzeitanwendungen wie Rekorder und Live-Untertiteln verwendet, „ohne den Akku schnell zu entladen“.

In der Zwischenzeit gibt es Assistant-Spracheingabe Indem Sie die Übersetzungsqualität von Pixel um 18 % verbessern, können Sie das, was Sie vollständig transkribiert haben, in einen freihändigen Übergang übersetzen, normalerweise mit jahrelanger fortgeschrittener Forschung:

Google Tensor ermöglicht die direkte Übersetzung, um Medien wie Videos mithilfe von Sprach- und Übersetzungsmodellen auf dem Gerät zu bearbeiten. Im Vergleich zu früheren Modellen auf den Pixel 4-Telefonen verbraucht das neue Modell der Neural Machine Translation (NMT) auf dem Gerät weniger als die Hälfte der Energie, wenn es auf Google Tension läuft.

Die Zukunft der Spannung

Google hat Tensor zunächst keinen Generationshinweis gegeben, aber das Unternehmen wird die Nummer in der nächsten Version hinzufügen. (Zum Beispiel wurde die Titan M von der Titan M2 gewonnen.)

Siehe auch  Die Justiz verklagt Penguin Random House wegen des Simon & Schuster-Deals

Es besteht kein Zweifel, dass Google mehr Chips für Telefone (und andere) herstellt Formfaktoren Es gibt Gerüchte). SVP Rick Osterlow sagte bei der Veranstaltung:

Tensor bietet auch eine Hardware-Basis, die wir seit vielen Jahren aufbauen, damit Sie die einzigartige, nützliche Erfahrung erhalten, die Sie von einem Google-Telefon erwarten.

FTC: Wir verwenden umsatzgenerierende automatische Verbindungslinks. Weiter


Weitere Neuigkeiten finden Sie unter 9to5Google auf YouTube: