Architekturen im Überblick: Formen für verschiedene Aufgaben
CNNs nutzen Faltungen, um lokale Bildmerkmale wie Kanten oder Texturen effizient zu erfassen. Durch geteilte Gewichte sind sie robust und ressourcenschonend. Von den ersten LeNet-Ideen bis zu modernen ResNets bleibt der Kern gleich: Lernen, wo im Bild relevante Informationen versteckt sind.
Architekturen im Überblick: Formen für verschiedene Aufgaben
RNNs und LSTMs prägten die frühe Sprachverarbeitung, doch Transformer setzten neue Maßstäbe durch Selbstaufmerksamkeit. Kontext wird global und parallel verarbeitet, wodurch lange Abhängigkeiten greifbar werden. In Übersetzung, Zusammenfassung und Codegenerierung hat sich dieser Paradigmenwechsel eindrucksvoll bewährt.
Architekturen im Überblick: Formen für verschiedene Aufgaben
Wenn Daten aus Knoten und Kanten bestehen, glänzen GNNs. Ob Moleküle, soziale Netzwerke oder Verkehrsflüsse: Nachrichten zwischen Nachbarn formen ein Verständnis der Struktur. Ein kleines Experiment mit einem Straßenkarten-Datensatz zeigte uns, wie elegant GNNs räumliche Muster erfassen können.
Architekturen im Überblick: Formen für verschiedene Aufgaben
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.