„Deep Learning“ und die Lernmaschinen
Unsere neue digitale Welt des 21. Jahrhunderts wird von Algorithmen geleitet. Algorithmen sind knapp gefasste mathematische Rechenvorschriften, nach denen ganze industrielle Systeme funktionieren, wenn sie untereinander digitalisiert sind. Solche Systeme sind als Ganze lernfähig. Aber auch die einzelnen Lernmaschinen lernen untereinander und erweitern so in gewaltigem Tempo ihr gespeichertes Wissen. Auch passen sie ihre Aufträge an neue Umstände an. Dieses Lernen der künstlichen Intelligenz – als ob bei Shakespeare Gespenster nachts ihre Nachrichten und Fähigkeiten austauschen – kann in den tiefen Ebenen der digitalen Arbeit von den Programmierern im Einzelnen nicht direkt und oft überhaupt nicht beobachtet werden. Dieses Lernen, bei dem die Lernmaschinen und deren Daten selbst die Lehrer sind, nennt man „deep learning“. Um die Gleichgewichte zwischen tradierter menschlicher und künstlicher Intelligenz zu stabilisieren, braucht man heute und in Zukunft sowohl Algorithmen als auch Gegen-Algorithmen, die die Systeme im Gleichgewicht halten. Für beides gilt „deep learning“.
Der Physiker und Informatiker Prof. Dr. Klaus-Robert Müller, spezialisiert auf neuronale Netze und Zeitreihenanalyse, ist Co-Direktor des Big Data Centers an der TU Berlin.