Wie sich Machine Learning und künstliche Intelligenz im Laufe der Zeit (nicht) verändert haben

Machine Learning, künstliche Intelligenz, Data Science, Data Mining, … Diese Begriffe haben sich im Laufe der Jahre gewandelt, aber wie viel ist wirklich neu und was gibt es eigentlich schon seit Jahrzehnten? Wird es maschinelles Lernen in 20 Jahren noch geben oder ist der Boom eines Tages einfach vorbei? Wo stehen wir aktuell in der Entwicklung und wohin führt uns die Reise?

Illustration: Geralt Absmeier

Am wichtigsten ist über Machine Learning zu wissen, dass es sich dabei um nichts anderes handelt als algorithmische Umsetzungen von statistischen Prinzipien, die schon sehr lange bekannt sind. Der Satz von Bayes etwa wurde bereits 1812 veröffentlicht und bildet die Grundlage für vieles im Bereich Machine Learning, wie wir es heute kennen.

 

1950er bis 1970er Jahre: Die Grundlagen von Machine Learning

Allerdings reicht es für erfolgreiches maschinelles Lernen nicht aus, ein paar aussagekräftige Formeln zur Hand zu haben. Der Computer muss sie auch ausführen können. Deshalb springen wir in die 1950er Jahre, als die Grundlagen für genetische Algorithmen und neuronale Netze gelegt wurden und die ersten Computer tatsächlich lernen konnten. Offensichtlich konnten sie noch nicht viel lernen, weil sowohl die Rechenleistung als auch die verfügbaren Daten extrem begrenzt waren. Die algorithmischen Mechaniken waren jedoch bereits weitgehend identisch mit denen, die wir heute verwenden. So sorgte das Thema damals schon für viel Aufregung: Schlagzeilen etwa über »elektronische Gehirne« fanden ihren Weg in die Medien. Ähnlich wie heute fürchteten und begeisterten sich die Menschen für die potenzielle Leistungsfähigkeit der Maschinen, was in den 1950er und 1960er Jahren bahnbrechenden Forschungen und Entdeckungen zur Geburt verhalf.

Da die Rechenleistung und die verfügbaren Daten im Vergleich zu heute noch gering waren, manifestierte sich ein gewisser Pessimismus gegenüber der Effektivität und den Möglichkeiten des maschinellen Lernens. Der sogenannte KI-Winter brach ein und dauerte die gesamten 1970er Jahre an. Die Fortschritte in der Forschung waren dementsprechend minimal und in der Wahrnehmung der meisten Menschen war die Zeit des maschinellen Lernens vorbei, weil es keine greifbaren Vorteile für die reale Welt gab. Erst nach den 70er Jahren wurde das maschinelle Lernen wieder populärer.

 

1980er Jahre bis Anfang 2000: Der KI-Hype wächst

Die 1980er und 1990er Jahre waren spektakuläre Jahrzehnte, getrieben von den (Wieder-)Entdeckungen der Backpropagation (neuronale Netze können effizient aus Daten lernen), der Random Forests, der Support Vector Machines (beides sind bis heute beliebte und effektive Algorithmen des maschinellen Lernens) und vielem mehr. Von dort nahm das öffentliche Bewusstsein für diese Technologien stetig zu. In den 2000er Jahren wurden die ersten großen Open-Source-Bibliotheken für Machine Learning veröffentlicht und große Wettbewerbe veranstaltet. Die bekannteste Ausschreibung kam 2006 von Netflix, worüber auch die Medien ausführlich berichteten. Netflix versprach ein Preisgeld von 1.000.000 US$ für das Team, das die Prognosen des Streaming-Anbieters für künftige Filmbewertung am stärksten verbessern konnte.

In den folgenden Jahren begann der Hype. Maschinelle Lernverfahren und neuronale Netze wurden nicht nur bei Informatikern und Mathematikern, sondern in allen Bereichen und Branchen bekannt, bis sie die heutige Popularität erreichten.

 

Heute: Datenverfügbarkeit und Rechenleistung geben Machine Learning eine Chance

Was hat sich also geändert? Warum ist Machine Learning heute ein branchenunabhängiges Phänomen und warum war es früher nicht so? Was sich mit Sicherheit nicht geändert hat, ist die Methodik. Die Art und Weise, wie Algorithmen ausgewertet werden, und die mathematische Mechanik dahinter sind über die Jahrzehnte gleichgeblieben. Die Algorithmen? Wir haben bedeutende Fortschritte gesehen, besonders im letzten Jahrzehnt. Die KI-Community ist gewachsen und hat neue und intelligentere Architekturen für neuronale Netze entwickelt und viele Frameworks und Algorithmen als Open Source veröffentlicht. Aber das sind eher die Symptome des Hypes als dessen Ursache.

Insbesondere zwei Dinge haben diese Entwicklungen beschleunigt: die Verfügbarkeit von Daten und eine kostengünstige Rechenleistung. Die meisten Firmen, mit denen ich bis dato zusammengearbeitet habe, haben frühestens in den späten 00er Jahren damit begonnen, Daten in großen Mengen zu sammeln. Viele Unternehmen haben den Wert ihrer Daten bis heute nicht erkannt und sammeln dementsprechend viele Daten nicht, die sich direkt monetarisieren ließen. Die Bereitschaft, sich auf eine datengesteuerte Entscheidungsfindung umzustellen (data-driven decision making), fehlt weiterhin. Den Zenit haben wir also längst noch nicht erreicht. Außerdem nützen alle Daten der Welt nichts, wenn die einzigen Computer, die für ihre Verarbeitung zur Verfügung stehen, dafür zu schwach sind. In den 1980er Jahren etwa konnte der leistungsfähigste Supercomputer der Welt gerade einmal 2,4 Gigaflops verarbeiten. Zum Vergleich: Der Laptop, auf dem ich diesen Text schreibe, verarbeitet etwa 61 Gigaflops. Das macht den Unterschied: Daten und passende Hardware stehen so kostengünstig zur Verfügung, dass jeder damit arbeiten kann.

 

Machine Learning bietet realen Mehrwert – so sieht die Zukunft aus

Da dies die beiden wichtigsten Faktoren sind, können wir nun ableiten, wie sich das Feld in den nächsten Jahren und wahrscheinlich auch Jahrzehnten entwickeln wird. Sicher wird die Menge der gesammelten Daten nicht abnehmen. Tatsächlich schätzt man, dass 90 % der weltweit verfügbaren Daten allein in den letzten zwei Jahren generiert wurden. Dieser Trend wird noch jahrelang anhalten und ähnliches wird für die Weiterentwicklung der Rechenleistung prognostiziert.

Seit Jahrzehnten gilt das Moore’sche Gesetz, das besagt, dass sich die Rechenleistung etwa alle zwei Jahre verdoppeln wird. Dieser Trend wird nicht ewig anhalten, aber das Maximum haben wir noch lange nicht ausgeschöpft. Da sich sowohl die Rechenleistung als auch die Menge an verfügbaren Daten zugunsten des maschinellen Lernens entwickeln, ist ziemlich sicher, dass auch Machine Learning in den kommenden Jahrzehnten noch eine wichtige Rolle spielen wird.

Andererseits wird sich die öffentliche Aufmerksamkeit irgendwann auf etwas anderes richten. Derzeit dringt die Technologie in viele Wirtschafts- und Forschungsbereiche vor. Investoren zahlen zum Teil absurde Summen für alles, was mit Machine Learning zusammenhängt. Das Thema wurde auf fast jeder Tech-Konferenz diskutiert und sogar theoretische Forschungsbereiche nutzen ihr Wissen, um ihr Feld voranzutreiben oder ihr Wissen auf ML-Algorithmen anzuwenden. Dieser Hype wird meiner Meinung nach nicht mehr lange anhalten, denn die Erwartungen zu vieler Interessengruppen sind so hoch, dass es unmöglich sein wird, alle zu erfüllen. Das bedeutet jedoch nicht, dass die Technologie an Relevanz verlieren wird. Dafür ist der Mehrwert zu groß. Es wird sich irgendwann weniger um einen Hype handeln als um ein Thema, das »nur noch« von den betroffenen Fachkräften besprochen wird. Man wird sich weniger um Marketing-Slogans kümmern als darum, was sich wirklich mit digitaler Entscheidungsfindung erreichen und verbessern lässt. In meinen Augen: großartige Aussichten.

Björn Heinen, Senior Data Scientist bei der INFORM GmbH

 

2214 Artikel zu „KI ML“

KI am Arbeitsplatz: Neue Technologien sind Bereicherung

Die Studie »Future of Work« zeigt, dass sich die Einstellung gegenüber neuer Technologien wie KI und Robotik positiv verändert hat.   Technologie wird von der Mehrheit der Arbeitnehmerinnen und Arbeitnehmer als Bereicherung am Arbeitsplatz betrachtet. Das zeigt die aktuelle Ricoh-Studie »Future of Work«. 54 Prozent der Arbeitnehmerinnen und Arbeitnehmer sind der Ansicht, dass Arbeitgeber Technologien wie…

KI-Augmentierung macht den Arbeitsplatz effizienter

Eine Enterprise-Search-Lösung hilft Unternehmen, Informationssilos aufzubrechen und allen Mitarbeitern einen schnellen und ganzheitlichen Zugang zu den benötigten Daten zu verschaffen. Ein Spezialist im Bereich Enterprise Search- und KI-Software, nennt fünf typische Anwendungsbeispiele für KI-Augmentierung [1]. Augmentierung wird im Softwarebereich immer wichtiger: Künstliche Intelligenz erweitert dabei die menschliche Intelligenz. KI-Verfahren wie Machine Learning und fortgeschrittene Textverständnis-Methoden…

KI-Schub für Unternehmen: Sechs Entwicklungen, die zeigen, wie künstliche Intelligenz Prozesse im Alltag beflügeln

KI-Einsatzmöglichkeiten im Zusammenspiel mit Unternehmensanwendungen. Dass künstliche Intelligenz (KI) eines der Trendthemen schlechthin ist, steht außer Frage. Eine aktuelle PwC-Studie kommt jedoch zu dem Ergebnis, dass erst sechs Prozent der Unternehmen in Deutschland KI einsetzen oder implementieren – es gibt demnach immensen Nachholbedarf. Oracle hat jetzt Anwendungsbereiche im ERP- und Geschäftssoftware-Umfeld zusammengestellt, in denen KI…

Wo KI drauf steht ist auch KI drin?

KI als Trendthema zur Jahreswende oder langfristig ein kritischer Faktor für effiziente IT- und Datennutzung? Nicht erst seit der Jahreswende ist KI als Schlagwort in aller Munde. Die Zahl der Unternehmen, die zumindest behaupten, KI-Fähigkeiten zu nutzen, steigt rapide an, besonders in der Cybersicherheitsbranche. Nachdem laut einer Studie von MMC Ventures 40 Prozent der selbsternannten…

Hard Skills oder Soft Skills – ist das die Frage?

HR braucht eine neue innovative Rollendiskussion. Digitale Transformation und New Work sind die Buzzwords dieser Tage. Die Digitalisierung und Globalisierung hat und wird unsere Arbeitsweise radikal verändern – daran besteht kein Zweifel. Veraltete klassische Arbeitsstrukturen werden einer zeitlich, räumlich und organisatorisch flexiblen Arbeitsweise weichen, die den Mitarbeitern neue Freiräume für Kreativität und die Entfaltung der…

2020: Daten werden sich in Bilanzen niederschlagen, KI muss ethisch und effizient werden

Technologisch hat sich in den vergangenen Jahren extrem viel getan: verschiedene Cloud-Modelle, maschinelles Lernen und KI sowie Flash-Speicher und andere neue Technologien. Nun geht es jedoch darum, ob und wie diese Technologien in den realen Unternehmensalltag Einzug halten, und welche Folgen beziehungsweise Potenziale dies für Unternehmen schafft.   Markus Grau, Principal Systems Engineering im EMEA…

Diese fünf KI-Trends werden das Jahr 2020 prägen

Das Thema künstliche Intelligenz wird die Unternehmen auch im nächsten Jahr wieder beschäftigen. Die IntraFind Software AG, ein Search-Spezialist, der für seine Lösungen auch KI und modernste Machine-Learning-Verfahren nutzt, sieht dabei fünf zentrale Entwicklungen:   Echter Mehrwert von KI wird genutzt. Nach Jahren des KI-Hypes kehrt in das Thema nun langsam Vernunft ein. Immer mehr…

2020 viel Dynamik im Storage-Umfeld: Container, Analytics und KI zünden die nächste Stufe

Auch wenn Storage und Data Management sowie die damit verbundene Infrastruktur mittlerweile oft unter »Commodity« eingeordnet wird, so sieht Pure Storage auch in Zukunft hier ein erhebliches Potenzial für Unternehmen und deren Kunden. Für das Jahr 2020 geht Güner Aksoy, Director Central Europe bei Pure Storage von 6 wichtigen Entwicklungen aus, die direkte Auswirklungen auf…

KI-Ausblick 2020: Die 5 wichtigsten KI-Trends für Unternehmen

Künstliche Intelligenz (KI), Machine Learning und Data Analytics sind inzwischen mehr als bloße Hype-Themen – diese Technologien durchdringen verschiedenste Geschäftsbereiche und beeinflussen unseren Alltag schon heute massiv. Mit der zunehmenden Verbreitung von KI in fast allen Branchen wachsen neben den Einsatzgebieten auch die Herausforderungen. OpenText zeigt, in welche Richtung die Entwicklung geht und welche Trends…

Phänomen KI – Hype oder reale Chance für Herausforderungen in der Cybersicherheit?

Die aktuelle Flut an KI-fähigen Geschäftsmodellen und KI-Angeboten sorgt vielerorts für Irritationen, das sich nicht wenige KI-Initiativen – zumindest bis dato – primär als Marketing-Stunts erweisen. Nachdem bei 40 Prozent der selbsternannten »KI-Unternehmen« in Europa entlarvt wurde, dass in ihren Lösungen KI gar nicht zum Einsatz kommt*, ist es verständlich, dass die Versprechen vieler Unternehmen…

Informationen intelligent verarbeiten dank KI-Technologie

Tagtäglich erreichen Unternehmen unzählige Dokumente, sei es auf Papier oder in digitaler Form. Die darin enthaltenen Informationen gilt es zu digitalisieren und schnell an nachgelagerte Systeme und Prozesse zu übergeben. Doch wie können unstrukturierte Informationen und Daten komfortabel erfasst und verfügbar gemacht werden? Intelligente Erfassungssysteme mit moderner KI-Technologie schaffen hier Abhilfe.

Cyberbedrohungen 2020: Fortgeschrittene KI und intelligente Bedrohungs-Desinformation

Unternehmen die sich proaktiv vor Angriffen schützen wollen, sollten bei ihrer Security-Strategie auf Integration, fortgeschrittene KI und anwendbare Threat Intelligence setzen.   Fortinet hat die Prognosen von FortiGuard Labs zur Bedrohungslandschaft für 2020 veröffentlicht. Die Analysten von Fortinet zeigen darin Methoden, die Cyberkriminelle in der nahen Zukunft voraussichtlich einsetzen werden. Zudem verraten sie wichtige Strategien,…

Kommt jetzt die Persönlichkeitsanalyse mit KI?

Mit künstlicher Intelligenz (KI) kann man heute Informationen aus Hirnscans ableiten, die früher undenkbar waren. Forscher können beispielsweise vorhersagen, wie jemand bei einem Persönlichkeitstest abschneiden wird. Das haben bereits mehrere Studien gezeigt. Auch individuelle Prognosen für das Auftreten und die zukünftige Entwicklung von psychischen Krankheiten scheinen möglich. Die Neurowissenschaftler Simon Eickhoff und Robert Langner vom…