Grundlagen - Künstliche Intelligenz

Andrea Gillhuber,

Künstliche Intelligenz – Definition, Begriffe, Anwendungsbeispiele

Was ist künstliche Intelligenz? Antwort darauf gibt dieser Grundlagenbeitrag. Er erläutert die Ursprünge, erklärt Unterkategorien wie Machine Lerning, Deep Learning sowie Reinforcement Learning und gibt einen Überblick über aktuelle Anwendungen der Technologien. 

Was ist Künstliche Intelligenz? Fragen und Antworten. © ktsdesign / Shutterstock.com

Eine Definition, die bereits seit Einführung des Begriffes KI in den 50er-Jahren besteht, lautet: Künstliche Intelligenz ist die Fähigkeit einer Maschine, intelligentes menschliches Verhalten zu imitieren. Doch für einen wirklich effizienten Einsatz wird die Maschine erst interessant, wenn sie mit der menschlichen Leistung gleichziehen oder diese sogar übertreffen kann. Denn dann haben wir Menschen die Möglichkeit, repetitive Aufgaben abzugeben oder Dinge schneller, sicherer oder fehlerfreier von Computern erledigen zu lassen.

Aktuell sprechen Ingenieure und Informatiker von künstlicher Intelligenz, wenn sie einen Computer auf eine Weise trainieren können, dass dieser bestimmte menschliche Fähigkeiten lernt und nachbildet – beispielsweise die Erkennung von Mustern und Objekten oder die Interpretation von Sprache. Damit erweitert sich obige Definition:
Künstliche Intelligenz ist die Fähigkeit eines technischen Systems, intelligentes menschliches Verhalten nachzubilden oder zu übertreffen - durch das Trainieren eines Computers, um das gewünschte Verhalten zu erlernen.

Anzeige

Ein technisches System soll also in die Lage versetzt werden, eine bestimmte Aufgabe zu bewältigen. Traditionell bedeutete dies, ein Programm für einen Computer zu erstellen, das Daten verarbeitet und die gewünschte Ausgabe liefert. Dies ist ein deterministischer Prozess.

Aktuelle KI-Technologien – Machine Learning, Deep Learning und Reinforcement Learning – kehren diesen Ansatz um: Man füttert einen Computer mit Daten und trainiert ihn mit – je nach Methode und Modell unterschiedlichen – mathematischen Verfahren, um aus diesen Daten ein sinnvolles Ergebnis zu ermitteln. Computer erzeugen mit solchen Verfahren die gewünschte Ausgabe, indem sie die „richtigen“ Modellparameter erlernen, aber die Aussage, dass sich ein Computer selbst programmiert, ist nicht zutreffend.

Der Vorgang der Verarbeitung und Interpretation der Daten besteht nicht aus einer bestimmten Folge von Operationen wie bei einem traditionellen Programm oder Algorithmus. Letztendlich sind KI-Modelle und -Verfahren im Wesentlichen „Black Boxes“, die auf bestimmte Weise unter Einsatz mathematischer Methoden lernen und trainiert werden, Daten sinnvoll zu verarbeiten und zu interpretieren. Dies ist kein hart-deterministischer Prozess, und es verbleibt ein Restfehler wie bei menschlichen Erkennungs- und Verarbeitungsprozessen auch. Diesen Restfehler gilt es zu minimieren und die Prozessgeschwindigkeit zu erhöhen, so dass ein KI-System für bestimmte ausgewählte Aufgaben mit dem menschlichen Vermögen gleichzieht oder dieses übertrifft.

Machine Learning

Machine Learning ist eine Technik zur Datenanalyse, mit der Computer die Fähigkeit erwerben, aus Erfahrung zu lernen. Machine-Learning-Algorithmen verwenden rechnergestützte Methoden, um Informationen direkt aus Daten zu „lernen“, ohne eine vorgegebene Gleichung als Modell zu nutzen. Mit wachsender Anzahl von Stichproben, die zum Lernen zur Verfügung stehen, steigern diese Algorithmen adaptiv ihre Leistung.

Machine-Learning-Algorithmen finden natürliche Muster in Daten, die Erkenntnisse generieren und die Entscheidungsfindung sowie Prognosen unterstützen können. Anwendungsbereiche sind beispielsweise medizinische Diagnosen, Börsenhandel, Vorhersagen von Stromlasten.

Machine Learning verwendet zwei Arten von Techniken:

  • überwachtes Lernen: Erstellung und Training von Modellen für Prognosen anhand von bekannten Eingabe- und Antwortdaten;
  • nicht überwachtes Lernen, mit dem verborgene Muster oder innere Strukturen in Eingabedaten gefunden werden.

Ein Algorithmus des überwachten Machine Learning verwendet eine bekannte Menge von Eingabe- und Ausgabedaten, den sogenannten Trainingsdatensatz, um damit ein Modell so zu trainieren, dass dieses Modell fundierte Vorhersagen der Antwortwerte für neue Datensätze treffen kann.

Die Verwendung größerer Trainingsdatensätze und die Optimierung von Modell-Hyperparametern kann oft die Vorhersagekraft des Modells erhöhen und sicherstellen, dass es für neue Datensätze gut verallgemeinert werden kann.

Beim überwachten Lernen werden Klassifikations- und Regressionstechniken verwendet, um die prädiktiven Modelle zu entwickeln.

Klassifikationstechniken sagen diskrete Ausgänge vorher – beispielsweise, ob eine E-Mail echt oder Spam ist oder ob ein Tumor bös- oder gutartig ist. Klassifikationsmodelle klassifizieren Eingabedaten in Kategorien. Typische Anwendungen sind die medizinische Bildgebung, die Spracherkennung und das Credit Scoring. Die Klassifikation wird verwendet, wenn Daten mit Schlagwörtern versehen, in Kategorien eingeteilt oder in spezifische Gruppen oder Klassen aufgeteilt werden können.

Regressionstechniken sagen kontinuierliche Ausgänge voraus – beispielsweise Temperaturänderungen oder Schwankungen des Energiebedarfs. Typische Anwendungen sind die Vorhersage von Stromlasten und der algorithmische Handel. Regressionstechniken werden im Fall von Datenbereichen bzw. -spektren verwendet, oder wenn der Ausgang eine reelle Zahl ist, wie eine Temperatur oder die Zeit bis zum Ausfall eines Geräts.

Nicht überwachtes Machine Learning findet Muster oder innere Strukturen in Daten. Es wird verwendet, um Rückschlüsse aus unter Umständen sehr großen Datenmengen zu ziehen. Die Eingabedaten sind nicht gekennzeichnet und es existieren keine klassifizierten Ausgabedaten, mit denen ein Modell trainiert werden könnten.

Clustering ist die häufigste Technik des nicht überwachten Lernens. Es wird für explorative Datenanalysen verwendet, um verborgene Muster oder Gruppierungen in Daten zu finden. Anwendungen für die Clusteranalyse sind beispielsweise Gensequenzanalyse, Marktforschung und Objekterkennung.

Deep Learning

Deep Learning ist eine spezialisierte Form des Machine Learning, mit dem Computer die Fähigkeit erwerben, aus Beispielen zu lernen. Anders als beim „klassischen“ Machine Learning, wo erst aussagekräftige Merkmale oder Features aus den Daten gewonnen werden müssen, erlernt beim Deep Learning ein Computermodell die Durchführung von Klassifikationsaufgaben direkt aus den unstrukturierten Rohdaten wie Bildern, Text oder akustischen Daten.

Deep-Learning-Methoden nutzen neuronale Netzarchitekturen mit vielen Ebenen. Deshalb werden Deep-Learning-Modelle häufig als tiefe neuronale Netze bezeichnet. Der Begriff „tief“ bezieht sich auf die Anzahl verborgener Schichten des neuronalen Netzes, tiefe Netze enthalten bis zu 150 verborgene Schichten.

Deep-Learning-Modelle benötigen für das Training sehr umfangreiche, gekennzeichnete Datensätze, zum Beispiel Millionen von Bildern für die Bilderkennung, und lernen die Erkennung von Merkmalen direkt aus den Daten, ohne dass eine manuelle Merkmalsextraktion erforderlich ist. Je mehr Trainingsdatensätze zur Verfügung stehen, desto höher ist die Erkennungsgenauigkeit. Deep Learning erfordert zudem sehr viel Rechenleistung, für deren Bereitstellung häufig Hochleistungs-GPUs zum Einsatz kommen.

Aufgrund dieser Anforderungen wird es erst seit kurzer Zeit in der Praxis eingesetzt, obwohl die Theorie des Deep Learning bereits in den 1980er-Jahren begründet wurde. Die Erkennungsgenauigkeit von Deep Learning Algorithmen übertrifft inzwischen die von Menschen in einigen Anwendungsfeldern, zum Beispiel bei der Klassifikation von Objekten auf Bildern.

Beispiele für Deep Learning in der Praxis

  • Automatisiertes Fahren: Automatische Erkennung von Objekten wie Stoppschildern, Ampeln und Fußgänger
  • Luft- und Raumfahrt: Identifizierung von Objekten, Zonen und Gebieten per Satellit
  • Bildauswertung in der medizinischen Forschung: Automatische Erkennung von Krebszellen, Interpretation von CTs und MRTs
  • Industrieautomatisierung: Erhöhung der Arbeitssicherheit an Maschinen durch Erkennung von Personen oder Objekten im Arbeitsbereich
  • Interpretation von Sprache und Text (Elektronik): Automatisiertes Hören und Sprechen, automatisierte Übersetzungen.

Reinforcement Learning

Reinforcement Learning ist eine Form des Machine Learning, mit der ein Computer durch wiederholte Interaktionen mit einer dynamischen Umgebung lernt, eine Aufgabe auszuführen. Auf diese Weise lassen sich Regelungen und Entscheidungssysteme für komplexe Systeme wie Roboter und autonome Systeme implementieren.

Mit einem iterativen Trial-and-Error-Ansatz werden Daten aus einem dynamischen System generiert, anhand derer der Computer lernt, Entscheidungen zu treffen und eine beste Abfolge von Aktionen zu finden, zum Beispiel für einen Bewegungsablauf oder eine Abfolge von Spielzügen. Dies erfolgt ohne menschlichen Eingriff und ohne dass der Computer explizit für diese Aufgabe programmiert ist. Ein bekanntes Beispiel für Reinforcement Learning ist AlphaGo, das erste Computerprogramm, das einen Weltmeister im Go-Spiel besiegt hat.

Ziel eines Reinforcement-Learning-Algorithmus ist es, eine Strategie zu finden, die zum optimalen Ergebnis führt. Hierzu interagiert eine sogenannte Agenten-Software mit einer Umgebung, um diese zu erkunden und von ihr zu lernen. Der Agent besteht aus einer Strategie, die einen Eingabezustand einer Ausgabeaktion zuordnet, und einem Trainingsalgorithmus, der diese Strategie aktualisiert und optimiert. Der Agent misst seine Leistung in Bezug auf die Aufgabenziele anhand eines (positiven oder negativen) Belohnungssignals, das aus der Umgebung berechnet wird. Der Algorithmus aktualisiert die Strategie so, dass das langfristige Belohnungssignal maximiert wird.

Beispiele für Trainingsalgorithmen sind Deep-Q-Netze, Actor-Critic und Deep Deterministic Policy Gradients. Strategien können durch tiefe neuronale Netze, Polynome und Lookup-Tabellen dargestellt werden.

Für Anwendungen wie die Robotik und autonome Systeme kann das Training eines RL-Algorithmus in der realen Welt mit echter Hardware teuer und gefährlich sein. Daher werden für das Reinforcement Learning meist virtuelle Modelle der Umgebung eingesetzt, die Daten durch Simulationen erzeugen.

Dieser Grundlagenartikel wurde von den KI-Experten von Mathworks bereitgestellt.

Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige