Als der inoffizielle Wikipedia-Vorlesepodcast sehen wir es als unsere Pflicht, eine Eigenheit dieser anzusprechen: nämlich Listen von Listen, obwohl es uns eigentlich um Listen im Speicher geht.
Shownotes
fundamentale Datenstrukturen siehe STP071: Felder/Listen, assoziative Datenfelder (Maps), GraphenFrage: Wie stellt man solche Datenstrukturen im Speicher dar? Gibt es darauf überhaupt die eine richtige Antwort?algorithmische Komplexität siehe STP029: Liste mit n Elementen ausdrucken in O(n), aber sortieren in O(n log(n)) bis O(n^2)Speicherallokation siehe STP047 und Speicherschutz siehe STP019: Bezug wird gleich klar werdenListen kann man als verkettete Liste darstellen
klassisches Studienobjekt in Erstsemester-Datenstrukturen-Vorlesungenintuitiv verständlich: Parallele zu segmentierten Halskettenwahlweise einfach oder doppelt verketteteffiziente Operationen: Einfügen am Ende, Entfernen am Endeineffiziente Operationen: Einfügen in der Mitte, Wahlzugriff/SucheVergleichstabelle mit Darstellung der Zeiteffizienzalles in allem durchwachsene Performance -> geht es besser?alternative Strategie: interne Darstellung der Liste als balancierter Baum (oder evtl. "ausgeglichener Baum")
außerdem Link auf die englische Wikipedia, die nicht nur unbalancierte, sondern auch balancierte Bäume zeigtkann nur sortierte Listen darstellenIdee: Wurzelknoten hat das Median-Element, dann der linke Ast alle kleineren und der rechte Ast alle größeren Elementeim Grunde alle gängigen Operationen mittelschnell: Wahlzugriff/Suche, Einfügen an beliebigen Stellen, Entfernen von beliebigen Stellen (Änderungen erfordern im Allgemeinen ein Austarieren des Baumes)große Variation von Implementationsstrategien für dieses Balancieren -> hier nichtverkettete Listen und balancierte Bäume sehen auf dem Papier ziemlich effizient aus, haben aber in ihrer reinen Form pathologisch schlechtes Speicherverhalten
hoher Platzverbrauch: z.B. bei einfach bzw. doppelt verketteten Listen muss zu jedem Element müssen noch eine bzw. zwei Speicheradressen abgelegt werdenhohe Allokationslast: wenn nicht eine Arena oder ein vergleichbarer Small Object Allocator verwendet wirdschlechte Lokalität: beim Durchlaufen nachfolgender Elemente werden im schlimmsten Fall ständig unterschiedliche Speicherseiten getroffen, was fortlaufend Seitenfehler verursachen kannin der Praxis mit Abstand dominante Implementationsstrategie: dynamische Felder
Beobachtung: Einfügen oder Löschen an beliebigen Stellen wird kaum gemacht; man hängt eher mehrmals ans Ende an und sortiert dann, falls nötigIdee: Optimieren auf Einfügen am Ende bei möglichst optimalen SpeicherverhaltenUmsetzung: einfaches Feld (ein fortlaufendes Stück Speicher, in dem mehrere Elemente hintereinander abgelegt werden) mit aktuellem Füllstand N und Kapazität KEinfügen ans Ende: normalerweise einfach N erhöhen; wenn N nicht in K passt, größeren Speicher reservieren, alles hinüberkopieren und die alten Speicherallokation verwerfenLöschen vom Ende: einfach N reduzieren, keine Deallokation erforderlichEinfügen am Anfang oder in die Mitte: alle Elemente dahinter nach hinten verschiebennahezu optimales Speicherverhalten von dynamischen Feldern begründet ihre Dominanz
Platzverbrauch: neben der Speichergröße der Elemente selber nur zwei Zahlen (N und K)Allokationslast: Vergrößern geht für gewöhnlich in exponentiellen Schritten und wird damit für wachsende Listen immer seltener nötigLokalität: lineare Suche durch die Liste geht linear durch den Speicher hindurch -> folgende Speicherseiten können vom Prozessor oft schon auf Verdacht vorgeladen werdentrotzdem: die anderen Datenstrukturen haben auch ihre Berechtigung (z.B. modifizierte balancierte Bäume als Basis für Datenbank-Indizes)Xyrill will auch noch auf analoge Weise über Maps und Graphen reden -> weiter in STP079