Nachrichten-Center

Künstliche intelligenz heute: die erfindung Von maschinen, natürlicher sprachkunde, spielen und wissenskunst

#Nachrichten-Center ·2019-07-08 06:41:37

Künstliche Intelligenz ist eines der am schnellsten wachsenden Gebiete unserer Zeit. Die Verfolgung und Bewertung der Entwicklungen im Bereich der Künstlichen Intelligenz erfordert nicht nur kontinuierliche Aufmerksamkeit, sondern auch die Fähigkeit, diese aus verschiedenen Perspektiven zu analysieren und zu bewerten. Genau das tun Nathan Benaich, Gründer von Air Street Capital und RAAIS, sowie Ian Hogarth, KI-Engel-Investor und Gastprofessor am UCL IIPP.

Außerdem: Künstliche Intelligenz durch Neurowissenschaften erschaffen – ZDNet YouTube

In ihrem am 28. Juni veröffentlichten Bericht „AI Index Report 2019“ stellen Benaich und Hogarth auf 136 Folien umfassend verschiedene Aspekte der Künstlichen Intelligenz dar: technische Durchbrüche und deren Fähigkeiten, Angebot, Nachfrage und Konzentration von Talenten im Bereich KI, aktuelle und zukünftige große KI-getriebene Innovationsplattformen, Finanzierung und Anwendungsgebiete, politische Themen rund um KI sowie Künstliche Intelligenz in China.

Benaich und Hogarth sind nicht nur Risikokapitalgeber: Beide verfügen über umfassenden KI-Hintergrund und waren an zahlreichen KI-Projekten von der Forschung bis zum Startup beteiligt. Zudem beziehen sie das Fachwissen bekannter Persönlichkeiten mit ein, wie François Chollet, Forscher bei Google AI und Leiter des Keras-Deep-Learning-Frameworks, den KI-Vordenker Kai-Fu Lee sowie Sebastian Riedel, Forscher bei Facebook AI.

Dieses Gemeinschaftswerk vereint umfangreiches Fachwissen, Erfahrung und Know-how. Nachdem wir den Bericht entdeckt und gelesen hatten, nahmen wir Kontakt zu Benaich auf und führten ein ausführliches Interview. Die gewonnenen Erkenntnisse und den Bericht selbst haben wir in zwei Artikeln zusammengefasst: Zunächst geht es um technische Durchbrüche und Fähigkeiten, danach um deren Auswirkungen und die politischen Implikationen von KI.


KI verstehen
Wenn Sie sich für Künstliche Intelligenz interessieren, ist dies vermutlich nicht der erste KI-Bericht, dem Sie begegnen. Viele sind vertraut mit dem „Data & AI Landscape“-Bericht von FirstMark (verfasst von Matt Turck und Lisa Xu) sowie mit MMC Ventures‘ „State of AI: Divergence“. Diese drei Berichte wurden fast gleichzeitig veröffentlicht. Dies kann zwar zu Verwirrung führen, da es Überschneidungen gibt, aber sie unterscheiden sich in Inhalt, Ansatz und Format.

Der FirstMark-Bericht ist ausführlicher und umfasst Akteure von Dateninfrastruktur bis hin zu KI. Er zeigt auch die Entwicklung von Big Data zu Data & AI auf, was, wie wir bereits sagten, ein natürlicher Übergang ist. MMC Ventures nimmt eine eher abstrakte Perspektive ein, die für Führungskräfte besonders geeignet sein könnte. Die Berichte unterscheiden sich in ihrer Sichtweise, ohne dass es um eine Wahl zwischen ihnen geht – jeder hat seine eigene Berechtigung.

Zunächst fragten wir Benaich, warum sie das tun: Warum teilen sie zweifellos wertvolles Wissen, investieren zusätzliche Arbeit und scheinen dies sogar kostenlos zu tun?

Benaich antwortete, sie glauben, dass KI zum Multiplikator des technischen Fortschritts in unserer zunehmend digitalisierten und datengetriebenen Welt werden wird. Denn heute ist alles um uns herum – von Kultur bis Konsumgütern – ein Produkt von Intelligenz:

„Wir glauben, dass es immer wichtiger wird, einen gut zugänglichen und zugleich detaillierten Überblick über den Stand der KI in verschiedenen Bereichen (Forschung, Industrie, Talente, Politik und China) zu haben. Wir veröffentlichen diesen Bericht, um die Diskussion über die Entwicklung der KI und ihre zukünftigen Auswirkungen anzuregen.“

Der Bericht erfüllt genau dieses Ziel, das Benaich in seiner Antwort formulierte. Die ersten 40 Seiten präsentieren die Fortschritte in der KI-Forschung in Form von Folien – technische Durchbrüche und deren Fähigkeiten. Schwerpunktbereiche sind unter anderem Verstärkendes Lernen, Spieleanwendungen und Zukunftsperspektiven, Durchbrüche im Bereich der natürlichen Sprachverarbeitung, Deep Learning in der Medizin sowie AutoML.


Verstärkendes Lernen, Spiele und Lernen in der realen Welt
Verstärkendes Lernen ist ein Teilgebiet des maschinellen Lernens, das in den letzten zehn Jahren stark im Fokus der Forschung stand. Benaich und Hogarth definieren es als „einen Software-Agenten, der durch wiederholtes Ausprobieren in einer Umgebung lernt, zielgerichtetes Verhalten zu entwickeln, wobei die Umgebung den Agenten für seine Handlungen, sogenannte ‚Strategien‘, belohnt oder bestraft.“

Ein großer Teil der Fortschritte in diesem Bereich hängt mit der Ausbildung von KI durch Spiele zusammen, um menschliche Leistung zu erreichen oder zu übertreffen. Spiele wie „StarCraft II“, „Quake III Arena“ und „Montezuma’s Revenge“ sind nur einige Beispiele.

Wichtiger als die reißerische Schlagzeile „KI besiegt Mensch“ ist jedoch die Frage, wie verstärkendes Lernen diese Ergebnisse erzielt: durch spielgetriebenes Lernen, die Kombination von Simulation und realer Welt sowie neugiergetriebene Erkundung. Können wir KI also durch Spielen trainieren?

Kinder lernen komplexe Fähigkeiten und Verhaltensweisen durch risikofreies Ausprobieren, zum Beispiel beim Spielen. Forscher setzen Überwachungsspiele ein, um Robotern Kontrollfähigkeiten zu vermitteln, die besser auf Störungen reagieren als durch Training mit Experten-Demonstrationen.

Im verstärkenden Lernen lernt der Agent durch Versuch und Irrtum. Dabei muss er das Gleichgewicht zwischen Erkundung (neue Verhaltensweisen ausprobieren) und Ausnutzung (bewährte Verhaltensweisen wiederholen) finden. Im realen Leben sind Belohnungen schwer explizit kodierbar. Eine praktikable Lösung besteht darin, Beobachtungen in einem Speicher zu sichern und Belohnungen zu geben, wenn der Agent etwas „Neues“ sieht.

Diese im Bericht genannten Ansätze erscheinen sowohl überzeugend als auch natürlich. Kann dies die zukünftige Entwicklung der KI sein? Benaich betont, dass Spiele ein idealer Nährboden für Training, Evaluation und Verbesserung verschiedenster Lernalgorithmen sind, äußert aber auch Kritik:

„Virtuelle Umgebungen generieren Daten meist kostengünstiger und in größerem Umfang, was Experimente erleichtert. Zudem lässt sich die Komplexität der Spielwelt je nach Versuchsaufbau anpassen. Allerdings simulieren die meisten Spiele nicht die Realität mit all ihren Feinheiten. Sie sind ein guter Ausgangspunkt, aber kein Endziel.“


Natürliche Sprachverarbeitung und gesundes Menschenwissen
Benaich und Hogarth heben hervor, dass 2019 ein bedeutendes Jahr für die natürliche Sprachverarbeitung (NLP) war: Google AIs BERT und Transformer, das ELMo vom Allen Institute, OpenAIs Transformer, Ruders und Howards ULMFiT sowie Microsofts MT-DNN demonstrieren, dass vortrainierte Sprachmodelle die Leistung bei verschiedensten NLP-Aufgaben erheblich verbessern.

Das Konzept, durch vortrainierte Modelle abstrakte und grundsätzliche Merkmale zu lernen, hat eine Revolution im Bereich Computer Vision ausgelöst – maßgeblich durch ImageNet, einem Datensatz mit über 20.000 Kategorien, z.B. „Ballon“ oder „Erdbeere“, die jeweils durch Hunderte annotierter Bilder repräsentiert sind.

Seit 2010 findet jährlich der ImageNet Large Scale Visual Recognition Challenge (ILSVRC) statt, ein Wettbewerb, bei dem Software Objekte und Szenen aus 1000 Kategorien erkennen muss. Dieser Wettbewerb war ein Motor für die Verbesserung von Computer-Vision-Technologien.

Letztes Jahr gelang ein ähnlicher Durchbruch in der Sprachverarbeitung durch vortrainierte Sprachmodelle auf großen Textkorpora. Im Gegensatz zu ImageNet basieren diese Modelle meist auf riesigen Mengen unstrukturierter, öffentlich verfügbarer Texte aus dem Internet.

Diese Technik lässt sich erweitern, um in NLP-Anwendungen bessere Ergebnisse zu erzielen und viele neue kommerzielle Anwendungsfälle zu ermöglichen – ähnlich wie Transfer Learning in der Computer Vision durch ImageNet neue Industrien beflügelt hat.

Benaich und Hogarth erwähnen den GLUE-Wettbewerb, der als einheitliche Benchmark die Leistung von NLP-Systemen bei Aufgaben wie Logik, gesundem Menschenverstand und Wortsemantik bewertet.

Sie ergänzen, dass die besten GLUE-Scores innerhalb von 13 Monaten von 69 auf 88 Punkte gestiegen sind – während menschliche Benchmark-Werte bei 87 liegen. Die Fortschritte sind beeindruckend schnell; eine neue Benchmark namens SuperGLUE wurde bereits eingeführt.

Sprache spielt in der menschlichen Kognition eine besondere Rolle, eng verbunden mit gesundem Menschenverstand. Auch hier gibt es Fortschritte: Eine aktuelle Studie von Salesforce erhöhte die Leistungsfähigkeit um 10%.

Forscher der New York University zeigten, dass durch generatives Training von Schlussfolgerungswissen KI-Modelle einfache gesunde Menschenverstand-Fähigkeiten erlernen und auf bislang unbekannte Situationen schließen können. Dies erweitert Arbeiten wie das Cyc-Projekt, eines der ältesten KI-Wissensbasis-Projekte, das in den 1980ern begann.


Der Weg nach vorne: Kombination von Deep Learning und Domänenwissen?
Wir fragten Benaich nach seiner Meinung zur Kombination von Deep Learning mit Domänenwissen in NLP, ein vielversprechender Ansatz laut Experten wie David Talbot von Yandex. Benaich sieht darin ebenfalls eine fruchtbare Forschungsrichtung:

„Insbesondere wenn KI-Projekte reale Probleme lösen sollen und nicht einen allgemeinen intelligenten Agenten bauen wollen, der Whiteboard-Probleme meistert. Domänenwissen kann durch das Kodieren von Primitiven tiefen Lernsystemen helfen, Probleme besser zu verstehen, anstatt dass Modelle alle Informationen (oft teuer und selten) von Grund auf neu lernen müssen.“

Er betont zudem die Bedeutung von Wissensgraphen für gesundes Menschenverstand-Schlussfolgern in NLP. Cyc ist ein bekanntes Beispiel eines solchen Wissensgraphen bzw. einer Wissensbasis. Allerdings hält er es für unwahrscheinlich, dass gesundes Menschenverstand-Schlussfolgern allein durch Text als einzigem Modus gelöst wird.

Weitere Highlights im Bericht umfassen Fortschritte im Bereich Datenschutz durch föderiertes Lernen, Googles TensorFlow Privacy und TF-Encrypted von Dropout Labs, sowie zahlreiche Anwendungen von Deep Learning in der Medizin. Darunter sind beeindruckende Leistungen wie das Dekodieren von Gehirnwellen und die Wiederherstellung der Körperkontrolle bei gelähmten Menschen.

Um alle Inhalte des Berichts zu verstehen – etwa AutoML, GANs und Fortschritte bei Sprachsynthese und Deepfake-Technologien (die wir schon vor Jahren vorhergesagt hatten) – ist intensive Forschung notwendig. Allein das Durcharbeiten des Berichts benötigt Zeit, doch er bietet viele wertvolle Erkenntnisse.


相关标签:

Copyright © 2011-2031 Ai Master