Geschäft

Amazon kann die Entwicklung von KI-chips für Alexa

Die Information hat einen Bericht heute morgen, dass Amazon arbeitet am Aufbau KI-chips für das Echo, das es ermöglichen würde, Alexa, um schneller Informationen analysieren und bekommen Sie die Antworten.
Immer diese Antworten viel schneller für den Benutzer, auch durch ein paar Sekunden, mag sich verschieben, das ist nicht Wild wichtig. Aber für Amazon, ein Unternehmen, das sich auf die Erfassung eines Benutzers Interesse in der absoluten kritischen moment für die Ausführung in einem Verkauf, es scheint wichtig genug, um Tropfen, die Reaktionszeit nahe bei null wie möglich zu pflegen, das Verhalten, Amazon kann dir die Antwort geben, die Sie benötigen, sofort — vor allem in der Zukunft, wenn es ist ein Produkt, sind Sie wahrscheinlich zu kaufen. Amazon, Google und Apple sind an dem Punkt, wo die Nutzer erwarten, dass die Technologie, die funktioniert und arbeitet schnell, und sind wahrscheinlich nicht so nachsichtig, wie Sie zu anderen Unternehmen, die sich auf Probleme wie image recognition (wie, sagen wir, Pinterest).
Diese Art von hardware-auf das Echo wäre wahrscheinlich ausgerichtet auf die Inferenz, wobei eingehende Informationen (wie Sprache) und dann eine Tonne von Berechnungen wirklich, wirklich schnell, um Sinn der eingehenden Informationen. Einige dieser Probleme beruhen oft auf einem ziemlich einfachen problem, die aus einem Zweig der Mathematik genannt, linearer algebra, sondern es erfordert eine sehr große Anzahl von Berechnungen, und eine gute user experience Anforderungen Sie sich sehr schnell geschehen. Das Versprechen die angepasste chips, die funktionieren wirklich gut für diese ist, dass Sie es schaffen könnten schneller und weniger Strom-hungrig, aber es gibt eine Menge von anderen Problemen kommen könnte. Es gibt eine Reihe von Start-UPS Experimentieren mit Möglichkeiten, etwas zu tun mit diesem, obwohl, wie das fertige Produkt landet, ist nicht ganz klar (so ziemlich jeder ist pre-Markt an dieser Stelle).
In der Tat, das macht sehr viel Sinn, einfach durch verbinden der Punkte von dem, was bereits da draußen. Apple soll mit seinen eigenen Kunden GPU für das iPhone, und bewegen diese Art von Spracherkennung Prozesse direkt auf das Handy würde helfen, es schneller zu analysieren eingehender die Rede, vorausgesetzt, die Modelle sind gut und Sie sitzen auf dem Gerät. Komplexe Abfragen — die Arten von lange-wie-Hölle-Sätze, die Sie sagen würde, dass in der Hund-app nur für den Kick — würde auf jeden Fall noch werden, erfordern eine Verbindung mit der cloud zu gehen durch den gesamten Satz, den Baum zu bestimmen, welche Arten von Informationen, die die person eigentlich will. Aber selbst dann, als die Technologie verbessert und wird robuster, solche Abfragen sogar schneller und einfacher.
die Informationen, Die der Bericht schlägt auch vor, dass Amazon daran arbeiten, auf KI-chips für AWS, die würde ausgerichtet ist, die Maschine training. Während dies macht Sinn, in der Theorie, ich bin mir nicht 100 Prozent sicher, dies ist ein Schritt, der Amazon würden werfen Ihr ganzes Gewicht hinter. Mein Bauchgefühl sagt, dass die Breite Palette von Unternehmen aus AWS brauchen nicht eine Art bleeding-edge-Maschinen-Schulung-hardware, und wäre fein, Ausbildung Modelle ein paar mal in der Woche oder Monat und die Ergebnisse, die Sie brauchen. Das könnte wohl mit einer billigeren Nvidia-Karte, und würde nicht zu tun haben mit der Lösung von Problemen, die mit hardware wie Wärmeableitung. That being said, es macht Sinn, zu versuchen, in diesem Raum ein wenig, da das Interesse von anderen Unternehmen, auch wenn nichts dabei heraus kommt.
Amazon lehnte einen Kommentar zu der Geschichte. In der Zwischenzeit, wie es scheint, die etwas auf sich halten enge Registerkarten auf, wie jeder scheint zu versuchen, um der eigenen Stimme-interface für smart-Geräte — entweder zu Hause oder, im Falle des AirPods, vielleicht sogar in Ihrem Ohr. Dank der Fortschritte in der Spracherkennung, voice stellte sich tatsächlich eine echte Schnittstelle für die Technik in der Weise, dass die Industrie dachte, es könnte immer sein. Es dauerte nur eine Weile für uns, hier zu bekommen.
Es gibt eine ziemlich große Anzahl von Start-UPS Experimentieren in diesem Raum (von startup-standards) mit dem Versprechen der Schaffung einer neuen generation von hardware und kann mit AI-Probleme schneller und effizienter, während potenziell verbrauchen weniger Strom — oder sogar noch weniger Platz. Unternehmen wie Graphcore und Cerebras Systeme basieren alle auf der ganzen Welt, mit einigen kurz vor dem Milliarden-dollar-Bewertungen. Eine Menge Leute in der Branche finden, der zu einer explosion wie Berechnen 2.0, zumindest, wenn Sie spielt die Art und Weise, Investoren zu hoffen.

Post Comment