Es existieren weder eine allgemein gültige Definition noch handfeste Theorien: Und doch - Artificial Intelligence, Künstliche Intelligenz oder in der Kurzversion KI ist in aller Munde. Bitkom-Experten sagen dem Cognitive Computing – selbstlernenden IT-Systemen auf Basis Künstlicher Intelligenz - einen immensen Wachstumsschub voraus. Für das Jahr 2020 rechnen sie mit einem Umsatz von rund 13 Milliarden Euro, der durch kognitive Produkte und Dienstleistungen weltweit erwirtschaftet wird. Unser Team ist seit 1998 mit Algorithmen der KI vertraut. Heute beleuchte ich allerdings ganz allgemein die Frage: Wie ist dieser Boom der Künstlichen Intelligenz zu erklären?
IBM lässt seinen Watson mit Bob Dylan plaudern. General Electric bietet mit der Predix Cloud die intelligente Analyse industrieller Daten an. Google treibt mit seiner App „Quick, Draw! die kognitive Bilderkennung weiter. Nahezu wöchentlich gerät eine neue Errungenschaft im Bereich der künstlichen Intelligenz in die Öffentlichkeit. Auf einmal scheint sie uns auf Schritt und Tritt zu verfolgen. Doch befasst man sich näher mit der Genese Künstlicher Intelligenz, wird klar: Aus dem Nichts kommt sie nicht.
Wissenschaftler und Experten beschäftigen sich bereits seit den fünfziger Jahren des vergangenen Jahrhunderts unaufhörlich mit KI. Seit Jahrzehnten wird diskutiert, wie Computer eines Tage denken und lernen, bewegen und reden können wie ein Mensch. Unterschiedliche Ansätze – seien es die neuronale KI, die symbolische KI oder die phänomenologische Methode - beherrschten die Debatte mit neuen Programmen. Joseph Weizenmann entwickelte in den sechziger Jahren ELIZA – ein Software-Programm, das die Kommunikation zwischen Psychotherapeut und Klient simuliert. In den achtziger Jahren wurde das erste von Computern gesteuerte Auto entwickelt. 1997 schlug die IBM-Software „Deep Blue“ den Schachweltmeister Garri Kasparov.
Zum wirklichen Turbo für die Weiterentwicklung und den Einsatz von KI-Software wurden aber letztendlich drei Entwicklungen: Immer leistungsfähigere Computer boten und bieten neue technische Möglichkeiten. Das Aufkommen des Internets hat unsere Kommunikation weltweit und nachhaltig verändert. Damit geht drittens einher, dass immer mehr Daten mit einem immer höheren Tempo in Umlauf sind. Einen entscheidenden Wendepunkt markiert das Jahr 2006: Amazon startete „Amazon Web Services“. Mit der kostenlosen Cloud Computing-Plattform bot das Unternehmen anderen Unternehmen zur Entlastung der eigenen Server kostenlos seine eigene Infrastruktur (Rechenzentren, hochverfügbare Dienste, Schnittstellen) an. Ein Angebot, von dem noch heute viele Onlinedienste profitieren und das den Motor der Digitalisierung gründlich anheizte. Google, IBM, Microsoft und viele weitere Anbieter zogen mit ähnlichen Cloudlösungen nach. Parallel brachten Google und Yahoo ihre kostenlosen Webanalyse-Programme „Google Analytics“ und „Yahoo Web Analytics“ auf den Markt. Und ein Jahr später startete mit dem ersten iPhone die Ära des mobilen Internets.
Mit diesen neuen Angeboten auf dem Markt, wurde künstliche Intelligenz noch wichtiger. Für die Entwicklung neuer Algorithmen standen nun billige Datenressourcen zur Verfügung. Die Budgets für ihre Programmierung wurden erhöht. Und mit dem wachsenden Angebot von KI-Software wurde sie auch immer erschwinglicher.
Führende US-Analysten prognostizieren in seltener Eintracht, dass schon in 15 Jahren die Hälfte aller Jobs direkt oder indirekt durch die Einflüsse von AI-Software oder intelligenter Assistenten betroffen sein wird. Unternehmen können zweifelsohne von dieser Entwicklung profitieren. Dazu allerdings werden sie die Chancen künstlicher Intelligenz früh aufgreifen müssen. Aber Achtung: die Verwendung von AI muss man kennen, entwickeln und beherrschen. Den effizienten Einsatz von Maschinen in der Produktion beherrschen nur jene Unternehmen, die sie bedienen und warten können. Gleiches gilt für KI Software: nur wer die Abläufe verinnerlicht hat und die Aufgaben klar formuliert, kann sie sinnvoll in Unternehmensprozesse einführen.