Archives

  • 2020 (6)
  • 2019 (4)
  • 2018 (6)
  • 2017 (4)
  • 2016 (10)
  • 2015 (9)
  • 2014 (14)
  • 2013 (5)
  • 2012 (19)
  • 2011 (26)
  • 2010 (21)
  • 2009 (17)
  • 2008 (30)

Blogroll:

  • 21Sep
    2010
    1:32 pm

    Die erste Fassung dieser Liste soll nun um einige Ideen erweitert werden, die sich insbesondere im Rahmen der Arbeitsgruppe “Komplexität” bei der Sommerakademie ergeben haben, bei der ich zuletzt teilgenommen hatte. So ließe sich als erster Leitstern in der Kategorie “Generelle Konzepte” das Wesen der Komplexität notieren. Doch an dieser Stelle möchte ich mich nicht mit diesem Abstraktum der “Wesensfrage” begnügen, sondern vielmehr höchst interessante Querverbindungen zu anderen faszinierenden Ideen aufzeigen. Ein konkretes Maß für die Komplexität anzugeben, ist ein wesentlicher Gegenstand der Bemühungen innerhalb der Komplexitätsforschung. Ein sehr pragmatischer Ansatz, die Komplexität beispielsweise eines Textes oder einer Funktion zu messen, beruht in der Kolmogorov-Komplexität: Die Länge des kürzesten Programms in einer zuvor vereinbarten Sprache (in Form einer universellen Turing-Maschine, eines ANSI-C Codes, etc…), welches diesen Text ausgeben kann oder diese Funktion berechnen kann, ist dessen Kolmogorov-Komplexität. Etwas unbefriedigend daran ist, dass diese schlicht nicht berechenbar ist, und zwar gerade wegen dem Halteproblem für Turing-Maschinen: Ein gegebenes Programm von 1000 Zeichen Länge, dass die gegebene Information korrekt wiedergibt, wäre solange nicht das erwiesenermaßen kürzeste, wie ein Programm mit 999 Zeichen noch nicht hält. Und das muss bekanntermaßen nicht eintreten.

    Ordnen wir nun ebenso unter “Generelle Konzepte” Occam´s Razor ein, als das universelle Prinzip, derjenigen Theorie den Vorzug zu geben, die ein gegebenes Phänomen einfacher beschreibt. Schließen wir nun mit dem Prinzip der Analogie von Occam´s Razor hin zu Komplexität, und wir erhalten das Konzept der Minimum Description Length: Man nehme das einfachste Modell für die vorliegende Funktion, so dass die Hypothese “Das Modell gibt die Daten wieder”, unter Annahme einer Wahrscheinlichkeitsverteilung für die Daten, wiedergegeben wird. Natürlich muss die Codierung der Modelle eben genau nicht Turing-vollständig sein (sonst hätte man wieder mit dem Halteproblem zu kämpfen), auch an Annahmen über Wahrscheinlichkeitsverteilungen werden sich die Geister scheiden: Doch genau daher ist es eine faszinierende Idee, deren konkrete Implementierung bzw. deren Implikationen ich dem Leser überlassen möchte.

    Nun stellt sich nur die Frage, in welche der Kategorieren MDL sich einordnen ließe, ist es für eine gesicherte Erkenntnis wohl noch vage, für ein generelles Konzept schon zu speziell. So möchte ich die Kategorie der Meta-Theorien dafür eröffnen, die dann untergeordnete Theorien erklären oder legitimieren können. Auch in die Gruppe der Meta-Theorien zähle ich die Überlegung, dass in der Evolution des Menschen gerade der Überfluss und Reichtum zur neolithischen Revolution beigetragen haben soll und nicht etwa Not und Hunger – mit einem kleinen Umweg über die Produktion von Bier, so wird es jedenfalls im ersten Gastbeitrag zur unvollständigen Liste faszinierender Ideen formuliert.

    Im übrigen trugen Überfluss an Zeit und Gedanken zu diesem Artikel bei.

    Posted by Patrick @ 1:32 pm

    Blog

Comments are closed.