Suche
Filterung

Bereiche

Branchen

Themen

Was man über Künstliche Intelligenz wissen sollte

Mainstream-Technologie – die Grundlage künftiger komplexer Entscheidungsfindung oder Jobkiller?

Die meisten Menschen denken bei dem Begriff Künstliche Intelligenz (KI) zuerst an Roboter. Das liegt daran, dass Filme und Romane mit großem Budget Geschichten über menschenähnliche Maschinen verbreiten, die Chaos auf der Erde anrichten. Auch wenn der Begriff „Künstliche Intelligenz“ mittlerweile Eingang in die gemeinsame Sprache gefunden hat und aus den Medien nicht mehr wegzudenken ist, gibt es keine wirklich gemeinsame Definition.

Was ist KI?

Künstliche Intelligenz kann als Versuch definiert werden, menschliche kognitive Aktivitäten nachzuahmen, komplexe Aufgaben auszuführen und sich, basierend auf den gesammelten Informationen, iterativ selbst zu verbessern. KI-Systeme sind so programmiert, dass sie menschliche Handlungen nachahmen. Das wesentliche Merkmal der KI ist ihre Fähigkeit, zu rationalisieren und Maßnahmen zu ergreifen, die die besten Chancen haben, ein bestimmtes Ziel zu erreichen. Es geht dabei mehr um den Prozess, um die Fähigkeit zu denken und zur Datenanalyse als um ein bestimmtes Format oder eine bestimmte Funktion. KI soll die menschlichen Fähigkeiten und Beiträge erheblich verbessern, den Menschen aber nicht ersetzen.

KI ist heute zu einem Sammelbegriff für Anwendungen geworden, die komplexe Aufgaben ausführen, die früher menschliche Eingaben erforderten. Der Begriff KI wird dabei oft synonym mit seinen Unterbereichen verwendet, zu denen Machine Learning (ML) und Deep Learning (DL) gehören.

Geschichte der KI

Die Entwicklung der KI ist alles andere als gradlinig und effizient und daher schwer zu definieren. 1950 entwickelte der britische Mathematiker und Informatiker Alan Turing den nach ihm benannten Test, um festzustellen, wann man von maschineller Intelligenz sprechen kann. Nach seiner Auffassung ist das der Fall, wenn eine Person in einem schriftlichen Dialog nicht erkennen kann, ob sie mit einer Maschine oder mit einer anderen Person spricht. Aber erst die Dartmouth Konferenz von 1956, auf der erstmals John McCarthy vom MIT (Massachusetts Institute of Technology) von künstlicher Intelligenz sprach, wird als Geburtsstunde der akademischen Disziplin „Künstliche Intelligenz“ bezeichnet. Nur ein Jahr später präsentierte Frank Rosenblatt sein Perzeptron als künstliches neuronales Netz.

Als aufregendes, einfallsreiches Projekt gestartet, wurde die Forschungsförderung für künstliche Intelligenz in den 1970er Jahren gekürzt, nachdem mehrere Berichte mangelnde Fortschritte kritisiert hatten. Selbst die fortschrittlichsten Programme konnten nur einfache Probleme lösen und wurden von den Kritikern als Spielzeug abgetan. Viele KI-Forscher waren hinsichtlich der möglichen Ergebnisse zu optimistisch und hinsichtlich der zu erwartenden Schwierigkeiten zu naiv. Es überrascht daher nicht, dass die Finanzierungen der Projekte gekürzt wurden, nachdem die versprochenen Ergebnisse nie eintrafen.

Der erste KI-Winter​

Die Zeit von 1974 bis 1980 wird als der „erste KI-Winter“ bezeichnet. Die Forscher hatten mit zwei grundlegenden Einschränkungen zu kämpfen: nicht genug Speicher und eine nach heutigem Standard miserable Verarbeitungsgeschwindigkeit. Der erste KI-Winter endete mit der vielversprechenden Einführung von Expertensystemen. Expertensysteme nutzen das Wissen von Experten, um ein Programm zu erstellen. Das System beantwortet dabei Fragen und löst Probleme innerhalb eines klar definierten Wissensbereichs und verwendet Regeln der Logik. Bankdarlehensprüfungsprogramme sind ein gutes Beispiel für ein Expertensystem aus den frühen 1980er Jahren.

Der zweite KI-Winter​

Die KI-Forschung durchlebte aber zwischen 1987 und 1993 einen weiteren großen Winter, weil die frühen Expertensystem-Computer als langsam und ungeschickt angesehen wurden. Desktop-Computer wurden immer beliebter und verdrängten die älteren, sperrigeren und viel weniger benutzerfreundlichen Expertensysteme, die im Vergleich zu Desktop-Computern auch zu teuer, schwer zu aktualisieren waren und nicht „lernen“ konnten.

Trotz des Erfolgs von IBMs Expertensystem Deep Blue 1997 beim Schachspiel gegen Garry Kasparov setzte erst um 2010 ein richtiger Boom um KI ein. Dafür waren zwei Faktoren verantwortlich. Zum einen der Zugang zu riesigen Datenmengen und zum anderen die Entdeckung der sehr hohen Effizienz von Computergrafikkartenprozessoren zur Beschleunigung der Berechnung von Lernalgorithmen. Die neuen technologischen Möglichkeiten hatten dann bedeutende Erfolge, wie den Sieg des IBM-Computers „Watson“ 2011 über zwei Champions der US-Quizshow Jeopardy und haben damit die Finanzierung angekurbelt. Es vollzog sich ein vollständiger Paradigmenwechsel bei Expertensystemen. Es ging nicht mehr darum, Regeln wie bei Expertensystemen zu kodieren, sondern darum, sie von Computern allein durch Korrelation und Klassifizierung auf der Grundlage einer riesigen Menge von Daten entdecken zu lassen.

Die Weiterentwicklung der Techniken des Machine Learnings und des Deep Learnings entpuppten sich dabei als sehr vielversprechend für eine Reihe von Anwendungen wie Sprach- und Bilderkennung. 2003 wurde zudem ein Forschungsprogramm gestartet, um neuronale Netze auf den neuesten Stand zu bringen. Weitere Experimente zeigten, dass es mit dieser Art des Lernens gelang, die Fehlerraten bei der Spracherkennung zu halbieren. Diese Art des Lernens hat auch beträchtliche Fortschritte bei der Texterkennung ermöglicht. Gleichwohl ist es aber noch ein weiter Weg bis zur Entwicklung von Systemen zum Textverständnis. Gesprächsagenten sind ein gutes Beispiel für diese Herausforderung. Smartphones wissen bereits, wie man eine Anweisung transkribiert, können sie aber nicht vollständig kontextualisieren und Absichten analysieren. In den letzten 15 Jahren ist es Amazon, Google, Baidu und vielen anderen gelungen, die KI-Technologie zu einem enormen kommerziellen Vorteil zu nutzen.

Wie funktioniert KI?

KI ist ein Zweig der Informatik, der danach strebt, menschliche Intelligenz zu simulieren und zu replizieren. KI kombiniert riesige Datenmengen mit schnellen Prozessen und überlegenen Algorithmen. Dadurch können Systeme automatisch aus Mustern lernen. Mit anderen Worten: KI-Technologie macht Maschinen intelligent. KI-Technologien sind disruptiv und revolutionieren die Art und Weise, wie Menschen mit Daten interagieren und Entscheidungen treffen. Graphical Processing Units oder GPUs sind dabei ein Schlüsselfaktor für KI, da sie die enorme Rechenleistung bereitstellen, die für die schnelle Verarbeitung von Millionen von Daten und Berechnungen erforderlich ist.

Ein KI-System ist ein Prozess des Reverse-Engineering menschlicher Eigenschaften und Fähigkeiten in einer Maschine und der Nutzung ihrer Rechenleistung, um das zu übertreffen, wozu wir fähig sind. Dazu bedient sich KI verschiedener Technologien.

Machine Learning (ML)

Machine Learning (ML) ist eine Technologie der KI, die mit Hilfe von Algorithmen Computersystemen die Fähigkeit verleiht, automatisch aus riesigen Mengen historische Daten zu analysieren und zu lernen, Muster zu erkennen, Schlussfolgerungen zu ziehen und Entscheidungen zu treffen, ohne menschliche Erfahrung einbeziehen zu müssen und explizit programmiert zu werden.

Neuronale Netze

Neuronale Netze ermöglichen Deep Learning. Neuronale Netze funktionieren nach einem ähnlichen Prinzip wie menschliche neuronale Zellen. Es sind Computersysteme, die neuronalen Verbindungen im menschlichen Gehirn nachempfunden sind. Das künstliche Äquivalent eines menschlichen Neurons ist ein Perzeptron. So wie Bündel von Neuronen neuronale Netze im Gehirn bilden, erzeugen Stapel von Perzeptronen künstliche neuronale Netze in Computersystemen.

Neuronale Netzwerke arbeiten mit Algorithmen, die die Beziehung zwischen verschiedenen Variablen erfassen und die Daten wie ein menschliches Gehirn verarbeiten. Sie lernen, indem sie Trainingsbeispiele verarbeiten. Die besten Beispiele sind große Datensätze, wie etwa 1.000 Katzenfotos. Durch die Verarbeitung der vielen Bilder (Eingaben) ist die Maschine in der Lage, eine einzige Ausgabe zu erzeugen, die die Frage beantwortet: „Ist das Bild eine Katze oder nicht?

Deep Learning

Deep Learning ist eine ML-Technik und verwendet künstliche neuronale Netze, die durch die Verarbeitung von Daten lernen. Künstliche neuronale Netze ahmen die biologischen neuronalen Netze im menschlichen Gehirn nach. DL lehrt eine Maschine, Eingaben durch Schichten zu verarbeiten, um das Ergebnis zu klassifizieren, abzuleiten und vorherzusagen. Mehrere Schichten künstlicher neuronaler Netze arbeiten zusammen, um aus vielen Eingaben eine einzige Ausgabe zu ermitteln. Eine weitere Form des DL ist die Spracherkennung, die den Sprachassistenten in Telefonen dazu befähigt, Fragen wie „Hey Google, wie funktioniert Künstliche Intelligenz?“ zu verstehen.

Natural Language Processing (NLP)

Natural Language Processing (NLP) ermöglicht es Computersystemen, Sprache im Kontext zu erkennen, zu interpretieren und logische Antworten zu geben. Das Ziel von NLP ist eine Mensch-Maschine-Interaktion, bei der die Maschine entsprechend reagiert, wenn sie versteht, was der Benutzer zu kommunizieren beabsichtigt.

Computer Vision

Computer Vision als integraler Bereich der KI ist eine Technik, die Deep Learning und Mustererkennung implementiert, um den Inhalt eines Bildes mit Hilfe von Algorithmen zu interpretieren einschließlich der Grafiken, Tabellen und Bilder in PDF-Dokumenten sowie in Texten und Videos. Dazu zerlegt Computer Vision ein Bild, untersucht die verschiedenen Teile des Objekts, klassifiziert das Bild und lernt auf diese Weise, auf der Grundlage früherer Beobachtungen ein besseres Ergebnis zu erzielen. Computer Vision ist in der Lage, beispielsweise das Gesundheitswesen zu revolutionieren, indem es bei der Auswertung von Röntgenscans eingesetzt wird, um Patienten schneller zu diagnostizieren.

Cognitive Computing

Cognitive Computing, als ein Teilgebiet der KI, simuliert menschliche Denkprozesse in Maschinen mit selbstlernenden Algorithmen durch Data Mining und Mustererkennung. Cognitive Computing-Prozesse verwenden eine Mischung aus Künstlicher Intelligenz, neuronalen Netzen, Deep Learning Algorithmen, NLP, Stimmungsanalyse und Kontextbewusstsein, um Text/Sprache/Bilder/Objekte so, wie das menschliche Gehirn zu verarbeiten, indem sie mit einem Lehrdatensatz verglichen werden. Durch die Nachahmung menschlicher Denkprozesse helfen Computer den Menschen, bessere und einfachere Entscheidungen zu treffen. Angesichts dieser Maschine-Mensch-Interaktionen kann Cognitive Computing auch als Augmented Intelligence bezeichnet werden.

Whitepaper "Intelligent Process Automation für Unternehmens­entscheider"

Erfahren Sie, wofür Sie Intelligent Process Automation in Ihrem Unternehmen einsetzen können, welche Kosten bei der Einführung entstehen und welchen ROI Sie erwarten können.

Was ist schwache KI und was ist starke KI?

Während die meisten Menschen verstehen, dass KI übergeordnete Funktionen wie das Erkennen von Sprache und das Treffen von menschlichen Entscheidungen ausführen kann, so ist aber vielfach der Unterschied zwischen schwacher KI und starker KI nicht geläufig.

Schwache KI

Was wir heute in unserem täglichen Leben sehen, ist das, was man als schwache KI bezeichnet. Sie wird als schwach bezeichnet, weil sie eine eingeschränkte Funktionalität hat. Die KI-Algorithmen sind darauf ausgelegt, bestimmte Aufgaben zu erfüllen, anstatt über kognitive Fähigkeiten wie das menschliche Gehirn zu verfügen. Die Algorithmen der schwachen KI verarbeiten Daten, um Dinge zu finden, die sie kennen, um sie dann, basierend auf ihrem Training und ihrer Programmierung, zu klassifizieren. Schwache KI kann den einmal programmierten Weg nicht verlassen. Beispiele für schwache KI aus unserem täglichen Leben sind Siri, Alexa und die Google-Suche.

Schwache KI hat viele Aspekte des Geschäfts und unseres persönlichen Lebensstils verändert, indem sie Aufgaben viel schneller oder besser als Menschen lösen oder erledigen kann. Sie treibt Chatbots und Empfehlungsmaschinen in Streaming-Diensten an. Schwache KI kann auch Muster in Datenmengen entdecken, um Krankheiten zu diagnostizieren und Behandlungen zu entwickeln. Sie ist zweifellos eine transformative Technologie.

Starke KI

Starke KI kommt derzeit nur in der Theorie vor. Denn starke KI steht für eine KI, die Intelligenz auf menschlicher Ebene aufweist. Sie kann in jeder Situation genauso verstehen, denken und handeln wie ein Mensch. Sie kann selbstständig Aufgaben erkennen und definieren sowie Wissen in der entsprechenden Anwendungsdomäne eigenständig aufbauen und erweitern. Starke KI untersucht und analysiert Probleme, um eine angemessene Lösung zu finden, wobei die Probleme auch neu oder kreativ sein können. Bei einer starken KI verlassen sich die Maschinen nicht mehr auf die menschliche Programmierung, um zu denken oder Aufgaben zu erledigen, denn sie verfügen über die vollen menschlichen kognitiven Fähigkeiten.

Wie lernt KI?

Wenn man sich mit der Frage beschäftigt, wie KI lernt, kommt man an diesen drei Begriffen nicht vorbei:

  • Überwachtes Lernen
  • Unbeaufsichtigtes Lernen
  • Verstärkungslernen

Überwachtes Lernen (Supervised Learning)

Überwachtes Lernen nutzt eine bekannte Beziehung zwischen Eingabe und Ausgabe. Dazu benötigt überwachtes Lernen beschriftete Daten. Das Ziel des Algorithmus ist es, aus richtigen Antworten in den Trainingsdaten zu lernen und die Erkenntnisse zu nutzen, um Vorhersagen zu treffen, wenn neue Eingabedaten vorliegen.

Die zwei Hauptaufgaben des überwachten Lernens sind:

die Regression – die Vorhersage kontinuierlicher numerischer Variablen wie Wettervorhersagen, Markttrends usw. und

die Klassifizierung – die Zuordnung von Daten zu genau bestimmten Kategorien, z.B. zwei Klassen wie Ja-Nein, Männlich-Weiblich, Richtig-Falsch usw.

Um überwachte Algorithmen zu bauen, wird ein Satz beschrifteter Daten erstellt, das heißt, Bilder werden z.B. mit korrekten Daten zu Eingabe- und Ausgabeinformationen versehen, z. B. Bilder von Autos und Lastwagen, jeweils mit den entsprechenden Klassennamen. Dann wird das Modell mit diesem beschrifteten Trainingsdatensatz gefüttert: Der maschinelle Lernalgorithmus beginnt, Muster zwischen Eingabe (Bild) und Ausgabe (Klasse) zu sehen. Der Begriff Supervised Learning stammt daher, dass dem Algorithmus zu Beginn ein Datensatz gegeben wird, in dem die richtigen Antworten stehen.

Unbeaufsichtigtes Lernen (Unsupervised Learning)

Im Gegensatz zum überwachten Lernen verwenden Algorithmen für unüberwachtes Lernen ausschließlich nicht gekennzeichnete Eingabedaten. Diese Lernmethode eignet sich für Probleme, bei denen unklar ist, wie die Ergebnisse aussehen sollen. Ziel ist es, Erkenntnisse zu gewinnen und Strukturen in den Daten zu finden. So kann der Algorithmus für unüberwachtes Lernen eine Liste mit Kunden automatisch in verschiedene Kundensegmente gruppieren. Es geht also darum, Vorhersagen auf der Grundlage eines Trainingssatzes gekennzeichneter Daten zu treffen. Das Ziel ist die Gruppierung unbeschrifteter Daten. Es werden keine Kategorien vorgegeben, sondern es sollen bestimmte Cluster entdeckt werden.

Verstärktes Lernen (Reinforcement Learning)

Das Reinforcement Learning beruht auf dem Prinzip von Trial-and-Error und dem Feedback zu den eigenen Handlungen. Belohnungen und Bestrafungen wirken als Signale für erwünschtes und unerwünschtes Verhalten. Das primäre Ziel beim Reinforcement Learning ist es, die Leistung zu verbessern, indem das System die maximale positive Belohnung erhält.

Ähnlich wie beim überwachten Lernen bildet der Algorithmus Input und Output ab, mit einem Unterschied. Während überwachte Lernalgorithmen am Anfang mit „richtigen Antworten“ (also gelabelten Daten) gefüttert werden müssen, nutzt Reinforcement Learning Belohnungen und Bestrafungen als Signale für erwünschtes und unerwünschtes Verhalten. Vom unüberwachten Lernen unterscheidet sich Reinforcement Learning in Bezug auf die Ziele. Während das Ziel beim unüberwachten Lernen darin besteht, Cluster in Daten zu finden, versucht Reinforcement Learning, ein geeignetes Aktionsmodell zu finden, das die kumulative Gesamtbelohnung maximiert.

Stellen Sie die Weichen für Ihre berufliche Zukunft!

Sie sind beruflich auf der Suche nach völlig neuen Herausforderungen sowie abwechslungsreichen Aufgaben? Wenn Sie in einem innovativen Umfeld etwas bewegen möchten, dann finden Sie bei der Weissenberg Group die richtigen Voraussetzungen.

Arten von Künstlicher Intelligenz

Basierend auf der Funktionalität von KI-basierten Systemen kann KI in vier Typen eingeteilt werden. Während wir bereits über den ersten Typ hinaus sind, perfektionieren wird derzeit aktiv den zweiten Typ. Der dritte und der vierte Typ existieren derzeit nur in der Theorie. Die vier KI-Typen sind

  • Reactive Machines AI
  • Limited Memory AI
  • Theory of Mind AI
  • Self-aware AI

Reactive Machines AI

Reaktive Maschinen gehören zu der Art von KI, die ausschließlich auf der Grundlage der vorliegenden Daten grundlegende Operationen ausführen und nur die aktuelle Situation berücksichtigen. Sie können aus den Daten keine Rückschlüsse ziehen, um ihre zukünftigen Aktionen zu bewerten und nur einen begrenzten Bereich vordefinierter Aufgaben ausführen. Man spricht von der ersten Stufe eines KI-Systems. Ein Beispiel für reaktive KI ist das Schachprogramm von IBM, das den Weltmeister Garry Kasparov besiegte.

Limited Memory AI

KI mit begrenztem Gedächtnis kann fundierte und verbesserte Entscheidungen treffen, indem sie die vergangenen Daten aus ihrem Speicher untersucht. Eine solche KI hat ein kurzlebiges oder temporäres Gedächtnis, mit dem vergangene Erfahrungen gespeichert und damit zukünftige Handlungen bewertet werden können. Selbstfahrende Autos sind KI mit begrenztem Speicher, die die in der jüngeren Vergangenheit gesammelten Daten verwendet, um sofortige Entscheidungen zu treffen. Beispielsweise verwenden selbstfahrende Autos Sensoren, um Menschen, die die Straße überqueren und Ampeln zu identifizieren, um bessere Fahrentscheidungen zu treffen.

Theory of Mind AI

Die Theory of Mind AI ist eine fortgeschrittenere, noch nicht vollständig entwickelt Art der Künstlichen Intelligenz, zu der intensiv geforscht wird. Der Fokus liegt hauptsächlich auf dem Bereich der emotionalen Intelligenz und der Entscheidungsfindung, damit KI menschliche Überzeugungen und Gedanken besser verstehen und mit den Gedanken und Emotionen der Menschen interagieren kann. Aktuelle Modelle erlauben nur eine einseitige Beziehung zwischen KI und den Menschen. Alexa und Siri befolgen jeden Befehl. Und selbst dann, wenn man Google Maps wütend anschreit, endlich eine andere Route zu berechnen, zeigt Maps keine emotionale Regung und zeigt stur die einmal berechnet Route an.

Self-aware AI

Selbständige, selbstbewusste KI existiert nur in Filmen und Geschichten und flößt dem Publikum, wie es Geschichten oft tun, sowohl enorme Hoffnungen als auch Ängste ein. Eine Maschine mit Bewusstsein auszustatten, ist eine Herausforderung für Entwickler, Forscher und Philosophen und übersteigt derzeit noch unser Verständnis. Das hindert Forscher weltweit aber nicht daran, eine selbstbewusste KI aufzubauen, die menschlicher Intelligenz ebenbürtig ist und dieselben Emotionen, Wünsche oder Bedürfnisse nachahmen kann. Aber es ist auch diese Art von KI, vor der KI-Skeptiker immer warnen, weil sie befürchten, dass KI, sobald sie sich ihrer selbst bewusst ist, in den Selbsterhaltungsmodus wechseln kann und die Menschheit als potenzielle Bedrohung betrachtet. Aber derzeit ist das alles noch echte Zukunftsmusik.

Welche Bedeutung hat KI?

Die Menge an Daten, die sowohl von Menschen als auch von Maschinen generiert wird, übersteigt mittlerweile bei weitem die Fähigkeit des Menschen, diese Daten aufzunehmen, zu interpretieren und komplexe Entscheidungen auf der Grundlage dieser Daten abzuleiten. KI bildet die zukünftige Grundlage aller komplexen Entscheidungsfindung. Die Bedeutung von KI liegt in ihrer Möglichkeit, traditionell menschliche Fähigkeiten wie Verstehen, Argumentieren, Planen, Kommunizieren und Wahrnehmen kostengünstig, effektiv, effizient und in großem Umfang in Software umzusetzen und auf jeden Sektor anzuwenden. KI kann analytische Aufgaben, darunter das Finden von Mustern in Daten, höchst effektiv übernehmen. Durch die Automatisierung dieser Fähigkeiten können ganz neue Möglichkeiten in den meisten Geschäftsbereichen und Verbraucheranwendungen geschaffen werden. Hierzu zählen beispielsweise autonome Fahrzeuge, automatisierte medizinische Diagnose, Spracheingabe für die Mensch-Computer-Interaktion, intelligente Agenten, automatisierte Datensynthese und verbesserte Entscheidungsfindung. Vor allem in Bereichen, in denen ein großer Teil der Zeit mit dem Sammeln und Synthetisieren von Daten verbracht wird wie in der Finanzdienstleistung, im Einzelhandel und Handel, bei professionellen Dienstleistungen, in der Fertigung und im Gesundheitswesen tuen sich zahlreiche konkrete Anwendungsfälle auf. Anwendungen von KI-gestützter maschineller Bildverarbeitung werden z. B. im Verkehrssektor von besonderer Bedeutung sein.

Video: Mensch oder Maschine - Wer behält die Oberhand?

Über dieses Thema sprechen Prof. Carsten Meyer, Professor für Künstliche Intelligenz an der Ostfalia Hochschule und Dr. Norbert Niemeier, Managing-Director bei Weissenberg Intelligence bei Klartext.

Wo wird KI eingesetzt?

Er gibt eine Vielzahl von Wegen und Arten, KI einzusetzen. In vielen Fällen hat KI schon heute unsere Welt verändert und unser Leben bequemer und interessanter gemacht.

  • Spracherkennung

    Smartphone-Besitzer rufen nach Siri oder Google, um sich den Weg zeigen zu lassen. In unzähligen Haushalten übernimmt Alexa die Suchen nach Informationen oder Musik im Netz, stellt Timer ein und trägt Termine in Kalender ein, öffnet Anwendungen und verschickt auf Wunsch Textnachrichten. Die KI-Technologie ML hilft Siri, Alexa und Co. mehr über ihre Besitzer und ihre Vorlieben zu erfahren, damit sie wissen, wie sie helfen können. Diese Tools nutzen KI, um Antworten auf die Fragen ihrer Nutzer zu erhalten oder die von ihnen gestellten Aufgaben auszuführen.

  • Selbstfahrende Autos

    Ein klassisches Beispiel für den Einsatz von KI ist das autonome Fahren. ML und Computer Vision sorgen dafür, dass das Auto seine Umgebung erkennt und entsprechend reagieren kann. Gesichtserkennung und biometrische Systeme helfen selbstfahrenden Autos dabei, Menschen zu erkennen und zu schützen. Diese Autos können lernen und sich an Verkehrsmuster, Schilder und mehr anpassen.

  • Betrugsprävention

    Der Finanzdienstleistungsbranche dient KI beispielsweise dazu, um anfängliche Bewertungen von Kreditanträgen auf Kreditwürdigkeit durchzuführen. Fortgeschrittenere KI-Engines werden eingesetzt, um betrügerische Kreditkartentransaktionen in Echtzeit zu überwachen und zu erkennen.

  • Chatbots

    In vielen Unternehmen wird KI mittlerweile eingesetzt, um den Kundendienst zu stärken. Chatbots können mit Kunden interagieren und allgemeine Fragen beantworten, ohne die Zeit eines Menschen in Anspruch nehmen zu müssen. Sie können eine Vielzahl von Anfragen selbstständig beantworten und ermöglichen so bis zu einem gewissen Grad eine Interaktion auf menschlicher Ebene.

  • Online-Shoppen

    Online-Shopping-Systeme verwenden Algorithmen, um mehr über die Vorlieben der Kunden zu erfahren und vorherzusagen, was sie einkaufen möchten. Diese Produkte können dann prominent im Sichtfeld des Kunden platziert werden und helfen, schnell Aufmerksamkeit zu erregen. Amazon und andere Einzelhändler arbeiten bereits daran, ihre Algorithmen zu verbessern, um mehr über die Kunden und deren mögliche Einkäufe zu erfahren.

  • Streaming Dienste

    Streaming Dienste machen ihren Kunden aufgrund ihrer Sehgewohnheiten Vorschläge zu Sendungen oder Videos, die für die Kunden interessant zu sein scheinen. Durch KI lernen Streaming Dienste die Vorlieben der Kunden kennen und verwenden Algorithmen, um alle Fernsehsendungen, Filme oder Musik zu verarbeiten, die dem Dienst zur Verfügung stehen, um Muster zu finden und auf deren Basis Vorschläge zu machen.

  • Gesundheitswesen

    Mittlerweile hat KI im Gesundheitswesen das Kommando übernommen, wenn es um die Diagnose der verschiedenen Arten von Krankheiten, die Überwachung des Gesundheitszustands der Patienten und die Erforschung und Entwicklung von Arzneimitteln geht. Gerade in der Radiologie spielt KI eine entscheidende Rolle bei der Erkennung verschiedener Krankheiten mit höchster Genauigkeit, wodurch der medizinische Diagnose- und Behandlungsprozess beschleunigt wird.

  • Landwirtschaft

    Autonome Traktoren und KI-basierte Drohnenüberwachung können die Produktivität und den Ernteertrag steigern sowie den Gesundheitszustand der Pflanzen und die Ernte überwachen. KI kann der Landwirtschaft helfen, die Anbauproduktivität mit besseren Wetterüberwachungssystemen zu steigern und für einen reibungslosen Wachstumsprozess zu sorgen. Außerdem werden Daten gesammelt, um noch bessere Modelle für die Produktivitätssteigerung in der Landwirtschaft zu entwickeln.

  • Fabrik- und Lagersysteme

    Ein KI-basiertes, automatisiertes Lager- und Lieferkettenmanagement reduziert den Personalaufwand und hilft Lagerunternehmen, die riesige Menge an Lagerbeständen oder das Inventar mit einem geeigneten Management- und Liefersystem zu verwalten. Automatisierte Roboter handhaben den Lagerbestand und erledigen verschiedene mühsame Aufgaben, so dass die Mitarbeiter an Entscheidungsaufgaben beteiligt werden können, um das gesamte Lieferketten- und Logistikmanagement zu verbessern.

  • Smart City

    Städte sind auf Informations- und Kommunikationstechnologien angewiesen, um Wirtschaftswachstum aufzubauen, die Lebensqualität zu verbessern und die Verwaltungsstrukturen zu optimieren. Mittels KI können Stadtverwaltungen ihre Verkehrs- und Energienetze miteinander verbinden und steuern, die Abfallentsorgung optimieren, mit Sensoren ausgestattete energieeffiziente Gebäude bauen und Kommunikationssysteme entwickeln, die eine bessere Überwachung von und den Zugang zu Gesundheits-, Notfall- und anderen öffentlichen Diensten ermöglichen.

  • Schule und Studium

    Dinge wie Plagiatsprüfer und Zitatfinder können Pädagogen und Studenten dabei helfen, Künstliche Intelligenz zu nutzen, um Arbeiten auf Plagiate hin zu analysieren und Recherchen zu verbessern. Die Systeme der künstlichen Intelligenz können die verwendeten Wörter lesen und mit Hilfe ihrer Datenbanken alles, was sie wissen, im Handumdrehen recherchieren. KI ermöglicht es diesen Tools, Rechtschreibung, Grammatik, plagiierte Inhalte und mehr zu überprüfen.

  • Erkennen von „Fake News“

    Google, Microsoft und verschiedene Social Media Netzwerke verwenden KI (ML/NLP), um den Wahrheitsgehalt von Artikeln automatisch zu bewerten. Aufgrund der Billionen von Posts, die in den sozialen Netzwerken überwacht werden müssen, und der Unmöglichkeit, dies manuell zu leisten, kommt KI zum Einsatz, um Wörter und Muster zu finden, die auf gefälschte Nachrichten hinweisen könnten.

Jetzt als RPA Developer durchstarten!

Sie sind beruflich auf der Suche nach völlig neuen Herausforderungen sowie abwechslungsreichen Aufgaben? Wenn Sie in einem innovativen Umfeld etwas bewegen möchten, dann finden Sie bei der Weissenberg Group die richtigen Voraussetzungen.

Was ist der Turing-Test?

Können Maschinen denken? Das war die Frage, die der britische Mathematiker und Krypto Analytiker Alan Turing 1950 am Anfang seines wegweisenden Artikels „Computing Machinery and Intelligence“ stellte. Ein von ihm entwickelter Test sollte den Menschen helfen, die Frage zu beantworten. Der Turing-Test ist eine einfache Methode, um festzustellen, ob eine Maschine menschliche Intelligenz aufweisen kann. Kann die Maschine mit einem Menschen ein Gespräch führen, ohne als Maschine erkannt zu werden, hat sie menschliche Intelligenz bewiesen. Dazu stellt eine Person zwei weiteren Personen, die sich in einem anderen Raum befinden und von denen eine ein Computer und die andere ein Mensch ist, schriftlich Fragen. Es geht darum festzustellen, welche der befragten Personen der Computer ist. Dabei wird die „Menschlichkeit“ der schriftlichen Antworten bewertet. Wenn der Computer der fragenden Person vortäuscht, dass seine Antworten von einem Menschen generiert wurden, besteht er den Turing-Test.

Bei der aktuellen Version des Turing-Tests befragen mehrere Personen die beiden Probanden. Der Test gilt als bestanden, wenn mehr als 30 Prozent der Fragenden nach fünf Minuten Gespräch zu dem Schluss kommen, dass der Computer ein Mensch ist. Der Turing-Test beurteilt also die Konversationsfähigkeiten eines Bots. Nicht jeder akzeptiert die Gültigkeit des Turing-Tests, aber das Bestehen bleibt eine große Herausforderung für Entwickler von Künstlicher Intelligenz. Bisher hat noch kein Computer den Turing-Test eindeutig bestanden. Aber es gab einige überzeugende Anwärter.

Was kann KI nicht?

Das Verständnis von Ursache und Wirkung ist ein wichtiger Aspekt dessen, was man als gesunden Menschenverstand bezeichnet. Aber genau dies ist ein Bereich, in dem KI-Systeme heute noch passen müssen. Die heutige KI hat nur eine begrenzte Fähigkeit, darauf zu schließen, was aus einer bestimmten Aktion resultieren wird. Sie kann das einmal Erlernte nicht ohne weiteres auf andere Bereiche übertragen. Sie kann nichts erschaffen, was nicht bereits ein erkennbares Muster hat. Es fehlt ihr an Vorstellungskraft und sie kann keine neue Ideen produzieren. Wenn es darum geht, Dinge zu tun, die nicht genau definiert sind oder bei denen schwer zu sagen ist, ob eine Antwort „richtig“ ist oder nicht – wie kreatives Denken oder das Einschätzen brandneuer Situationen – ist der Mensch nach wie vor besser.

Und so wie KI kein moralisches Urteil fällen kann, kann sie die Gefühle einer Person nicht wirklich verstehen, da ihr soziale, emotionale Intelligenz fehlt. Zudem sind Maschinen immer nur so „intelligent“ wie die Daten, mit denen sie trainiert werden – und die Daten, mit denen sie trainiert werden, stammen alle aus der Vergangenheit. Das kann dazu führen, dass Maschinen in völlig neuen, sich verändernden Situationen voreingenommen sind. Das zu ändern, ist aber extrem schwer, da historische Daten für die Funktionsweise des Maschinellen Lernens von grundlegender Bedeutung sind. Dazu kommt, dass die Daten selbst manchmal fehlerhaft, nicht vollständig oder nicht ausreichend sind, um Entscheidungen zu treffen. Insbesondere kann KI den Menschen auch nicht ersetzen, weil es auch zukünftig menschliche Entscheidungen auf bestimmten Ebenen bedarf.

Die Vor- und Nachteile Künstlicher Intelligenz

Künstliche Intelligenz strebt die Simulation menschlicher Intelligenz in einer Maschine an, um die Maschine in die Lage zu versetzen, wie ein Mensch zu denken. Wie bei fast allen Methoden, Ideen und Konzepten gibt es Befürworter und Kritiker. Während die einen KI schon fast als Heilsbringer verklären, verteufeln die anderen KI als Totengräber der Menschheit – etwas überspitzt ausgedrückt.

Vorteile Künstlicher Intelligenz
  • KI verbessert die Leistungsfähigkeit der Computer.
  • KI sorgt für eine neue und verbesserte Mensch-Maschine-Interaktion.
  • KI kann mit Hilfe innovativer Technik immer wieder neue Probleme lösen.
  • KI kann im Gegensatz zum Menschen Entscheidungen schneller treffen und Aktionen schneller ausführen.
  • KI verarbeitet Informationen besser als Menschen.
  • KI erleichtert die Umwandlung von Informationen in digitales Wissen.
  • KI verbessert die Effizienz und Produktivität in Unternehmen, indem sie Zeit für die Erledigung einer Aufgabe im Vergleich zu Menschen verkürzt.
Nachteile Künstlicher Intelligenz
  • Die Implementierungskosten von KI sind sehr hoch.
  • Die Softwareentwicklung für die KI-Implementierung ist teuer und die notwendigen Entwicklungsressourcen sind rar.
  • KI kann nicht kreativ sein.
  • KI kann Arbeitsplätze ersetzen und kann zu Arbeitslosigkeit führen.
  • KI macht den Menschen arbeitsfauler, was dazu führt, dass der Mensch vollständig von Maschinen und Robotern abhängig ist.
  • KI kann leicht Schaden anrichten und für den Menschen gefährlich werden, wenn sie in die falschen Hände gelangt.

Letztendlich muss jeder für sich selbst entscheiden, auf welcher Seite er in diesem Fall steht. Sicher ist allerdings, dass KI unsere Arbeit, Denkweise und die Art und Weise, wie wir neue Horizonte erkunden, verbessert.

Was treibt die Einführung von KI voran?

KI ist in den vergangenen Jahren zu einer Mainstream-Technologie geworden. Unternehmen sehen in KI die Möglichkeit, das erhöhte Tempo digitaler und datengesteuerter Innovationen mitgehen zu können. Dazu kommt, dass die Voraussetzungen für die Verbreitung von KI nie so gut waren wie aktuell. Drei Faktoren bilden dabei den Treibstoff, der das Rad der KI-Entwicklung antreibt.

Die für KI notwendige Rechenleistung ist mittlerweile bezahlbar und leicht verfügbar. Die Fülle an Commodity-Rechenleistung in der Cloud ermöglicht einen einfachen Zugang zu erschwinglicher Hochleistungs-Rechenleistung. Vor dieser Entwicklung waren die für KI verfügbaren Computerumgebungen weder cloudbasiert noch finanzierbar.

Mittlerweile stehen die für das Training von KI notwendigen großen Datenmengen zur Verfügung. Denn KI muss mit vielen Daten trainiert werden, um die richtigen Vorhersagen zu treffen. Das Aufkommen verschiedener Tools zur Kennzeichnung von Daten sowie die Leichtigkeit und Erschwinglichkeit, mit der Organisationen sowohl strukturierte als auch unstrukturierte Daten speichern und verarbeiten können, erleichtern es, KI-Algorithmen zu entwickeln und zu trainieren.

Immer mehr Unternehmen erkennen zunehmend den Wettbewerbsvorteil, der sich aus der Anwendung von KI-Tools für ihre Geschäftsziele ergibt und priorisieren daher die Entwicklung und Implementierung von KI-Lösungen. KI-basierte Empfehlungen helfen schneller, bessere Entscheidungen treffen zu können. Viele der Funktionen und Fähigkeiten von KI führen zu niedrigeren Kosten, geringeren Risiken und einer schnelleren Markteinführung von Produkten und Dienstleistungen. KI ist der Schlüssel zu verbesserten Kundenerlebnissen, effizienteren Mitarbeitern und zur beschleunigten Einführung von Innovationen.

Was sind die Herausforderungen bei KI?

KI wächst und gewinnt mit einer unheimlichen Geschwindigkeit an Popularität. Diese wachsende Popularität veranlasst immer mehr Unternehmen dazu, in die Entwicklung und Erforschung unterschiedlichster KI-Anwendungen zu investieren. Um den Erfolg der KI-Implementierung nicht zu gefährden, müssen Unternehmen, die sich der KI-Sache verschrieben haben, eine Reihe von Herausforderungen meistern.

Der richtige Datensatz

Um KI-Systeme nutzen zu können, bedarf es hochwertiger Daten. Deshalb muss der Implementierungsprozess von KI mit der Auswahl und Verwendung der richtigen Datensätze beginnen. Das ist angesichts der vielfältigen Daten, die innerhalb eines Unternehmens und zwischen verbundenen Organisationen fließen, keine leichte Aufgabe. Nur der richtige Datensatz für das Training der KI garantiert eine Verbesserung der Entscheidungsfindung und des Lernprozesses der KI. Gegebenenfalls müssen externe KI- und Daten-Experten hinzugezogen werden, um den richtigen Ansatz zu finden, damit die gewünschten Ergebnisse und die transformativen digitalen Erfahrungen sich auch einstellen.

Datensicherheit und -speicherung

Die meisten KI-Anwendungen nutzen eine beträchtliche Menge an Daten. Um zu lernen und intelligente Entscheidungen treffen zu können, müssen den KI-Anwendungen eine riesige Menge Daten zur Verfügung gestellt werden. Große Datenmengen können aber schnell zu Speicherproblemen führen. Zudem kann es bei der Nutzung datengesteuerter KI-Anwendungen zu Problemen im Zusammenhang mit der Datensicherheit führen. Eine optimale und angemessene Umgebung zur Datenadministration, die nicht nur die entsprechende Sicherheit für sensible Daten, sondern auch den Zugriff auf isolierte Daten für KI- und ML-Projekte erleichtert, ist deshalb von großer Bedeutung, um KI-Anwendungen problemlos implementieren zu können.

Infrastruktur

KI-basierte Systeme, die traditionelle Legacy-Systeme auf veralteten Infrastrukturen ersetzen sollen, benötigen eine hohe Rechengeschwindigkeit, die nur eine entsprechende Infrastruktur und High-End-Prozessoren liefern können. Bei der Planung der Implementierung von KI-Lösungen sollten Unternehmen daher auf den Aufbau einer robusten Umgebung und einer flexiblen Infrastruktur achten, die vollständig mit KI-basierten Lösungen oder Anwendungen kompatibel sind.

Integration in bestehende Systeme

Auch die Integration von KI-Lösungen in bestehende Geschäftssysteme stellt eine nicht zu unterschätzende Herausforderung dar, mit der die meisten Unternehmen konfrontiert werden. Für eine angemessene Implementierung von KI-Lösungen in bestehende Systeme ist es oftmals ratsam, die Hilfe von KI-Lösungsanbietern mit umfassender Expertise und Erfahrung auf dem Gebiet der KI, von der Konzeption bis zur Bereitstellung, in Anspruch zu nehmen.

Komplexe Algorithmen und Training

Die Funktion und Leistung von Business-Intelligence-Lösungen hängen stark von KI-Algorithmen ab. Für die erfolgreiche Implementierung von KI-basierten Algorithmen ist ein kontinuierliches Training von ML- oder KI-Modellen unbedingt erforderlich. Dabei darf aber nicht vergessen werden, dass dieses Training beträchtliche Arbeitszeit erfordern kann. Diese Zeit und die entsprechenden Ressourcen müssen von Anfang an mit eingeplant werden.

Weissenberg Group – Ihr kompetenter Partner in allen Fragen der digitalen Transformation

Möchten auch Sie die Wettbewerbsfähigkeit Ihres Unternehmens im digitalen Zeitalter stärken? Wir beraten Sie gern zur digitalen Transformation Ihres Unternehmens.

Ausblick

KI ist eine digitale Technologie, die die Entwicklung der Menschheit in naher Zukunft maßgeblich beeinflussen wird. Das wirft auch grundlegende Fragen im Umgang mit KI auf. Die Diskussion um die Ethik der KI konzentriert sich dabei oft auf „Bedenken“ verschiedener Art, was eine typische Reaktion auf neue Technologien ist. Zu den Bedenken zählen in allererster Linie die Risiken, die Sicherheit und die Auswirkungen von KI auf die Gesellschaft und Wirtschaft, um deren Klärung die Gesellschaft, Politik und Wirtschaft nicht herumkommen werden. Nichtsdestotrotz wird KI niemals mit der menschlichen Intelligenz identisch sein. Denn eine komplexe Intelligenz wie die menschliche erfordert eine mentale Entwicklung, die von Interaktionen mit der Umwelt abhängt. Die Interaktionen hängen wiederum von der Wahrnehmung und den motorischen Systemen ab.

Technologisch gesehen eröffnet das Quantencomputing der KI neue Möglichkeiten, bestimmte Aufgaben wie neuronale Netzoptimierungen und digitale Approximationen (Näherungsverfahren) schneller berechnen zu können. Die Fortschritte bei den Algorithmen-Designs werden es der KI zudem ermöglichen, effizienter zu arbeiten und mehr Menschen mit weniger technischem Wissen zur Verfügung zu stehen.

Milad Safar
Milad Safar

Managing Partner und Autor zahlreicher Veröffentlichungen zum Themenfeld Digitalisierung

Das könnte Sie interessieren

Newsletter Anmeldung

Anfrage senden