Komplexe neuronale Netze: Die Technik hinter ChatGPT et al.

Autor: Rolf Kickuth

Verständlich ohne Verständnis

ChatGPT ist wohl das „iPhone-Ereignis“ für künstliche Intelligenz (KI). Sie ist schon lange in unseren Alltag eingedrungen, aber nahezu unmerklich, beispielsweise bei der Optimierung von Fotos in den Mobiltelefonen oder auch als Sprachassistent – mit allerdings noch begrenzter Funktionalität. Durch die unmittelbare und gleichzeitig total einfache – weil wie in der zwischenmenschlichen Kommunikation gewohnte – Ansprache an ChatGPT und die schlau klingenden Antworten ist jedoch praktisch jedem klar geworden, welches Potenzial in KI steckt. Im vorangegangenen Artikel zeigt CLB-Autor Volker Wiskamp, dass es für KIs mittlerweile kein Problem mehr ist, auch in Deutschland universitäre Prüfungen zu bestehen. Dennoch ist das keine Zauberei, sondern kaum vorstellbare Rechenarbeit.


Maßgeblich für die Funktion von ChatGPT sind künstliche neuronale Netze, über die in der CLB wiederholt berichtet wurde, so in [1, 2, 3]. Spekulationen über die Leistungsfähigkeit von künstlichen neuronalen Netzen (KNN; auch ANN für Artificial Neural Nets) nährten eine Zeit lang ihre Mystifizierung. 

Das Perceptron sollte eher eine Maschine als ein Programm sein. Die erste Implementierung erfolgte allerdings in Software für IBM 704. Dann wurde es in speziell angefertigter Hardware als „Mark 1-Perceptron“ gebaut. Es konnte Buchstaben erkennen, die eine Anordnung von 400 Fotozellen aufnahm. Sie waren zufällig mit den „Neuronen“ verbunden. Synaptische Gewichte ließen sich durch Potentiometer einstellen, und Gewichtsaktualisierungen während des Lernens erfolgten durch Elektromotoren (Foto: Cornell Aeronautical Laboratory).

© 2023 Rolf Kickuth zurück zur Startseite