Cards (118)

  • Die Unternehmensarchitektur beschreibt die Gesamtstruktur eines Unternehmens einschliesslicht Geschäftsprozesse, IT-Systeme, Organisation und Kultur.
  • Die Datenarchitektur ist die Struktur und die Beziehungen von Daten in einem Unternehmen; konzetriert sich auf die Art und Weise, wie Daten gespeichert, verarbeitet und verwendet werden.
  • Einwegtür: Entscheidung, die fast nicht mehr rückgängig gemacht werden kann.
  • Die IoT-Plattform speichert und verarbeitet die Daten aus den IoT-Geräten.
  • IoT-Gateways verbinden IoT-Geräte mit der zentralen IoT-Plattform.
  • IoT-Architekturen sind Architekturen für die Sammlung und Verarbeitung von Daten aus dem Internet der Dinge (IoT).
  • IoT-Architekturen bestehen in der Regel aus IoT-Geräten, die Daten aus der realen Welt sammeln.
  • Beispiel: Amazon könnte beschlossen haben, AWS zu verkaufen oder zu schliessen.
  • Es wäre für Amazon nahezu unmöglich, nach einer solchen Maßnahme eine öffentliche Cloud mit derselben Marktposition wieder aufzubauen.
  • Zweiwegtür: Beschreibt eine Entscheidung, die in beide Richtungen geht und leicht umkehrbar ist.
  • Schichten sind von unten nach oben und hierarchisch aufgebaut.
  • Innerhalb jeder Schicht kann die bevorzugte Technologie verwenden werden.
  • Ereignisgesteuerte Architektur (Event-Driven Architecture) ist ein Zusammenspiel der Komponenten, bei dem Ereignisse gesteuert werden.
  • Data Marts sind spezialisierte Teilmengen eines Data Warehouse, die sich auf einen bestimmten Geschäftsbereich oder eine bestimmte Abteilung konzentrieren.
  • Microservices sind Dezentralisierte Systeme mit loose coupling und eine ein- oder mehrstufige Architektur ist möglich.
  • Data Warehouse ist eine datenzentrierte Architektur, die strukturierte Daten aus verschiedenen Quellen zusammenführt, um eine gemeinsame Plattform für analytische Anwendungen zu schaffen.
  • Monolithen sind Zentralisierte Systeme mit tight coupling und eine ein- oder mehrstufige Architektur ist möglich.
  • Beispiel: Amazon könnte beschliessen, die Verwendung von DynamoDB für eine neue Microservices-Datenbank vorzuschreiben.
  • Wenn diese Politik nicht funktioniert, hat Amazon die Möglichkeit, sie rückgängig zu machen und einige Services so umzugestalten, dass sie andere Datenbanken verwenden.
  • Die Operational Excellence-Säule ist die Fähigkeit, die Entwicklung zu unterstützen und Workloads effektiv zu betreiben, Einblicke in ihre Abläufe zu gewinnen und unterstützende Prozesse und Verfahren kontinuierlich zu verbessern, um einen geschäftlichen Nutzen zu erzielen.
  • Die Sicherheit-Säule beschreibt, wie Sie die Vorteile von Cloud-Technologien nutzen können, um Daten, Systeme und Anlagen so zu schützen, dass Ihre Sicherheitslage verbessert wird.
  • Die Zuverlässigkeit-Säule umfasst die Fähigkeit eines Workloads, seine beabsichtigte Funktion korrekt und konsistent auszuführen, wenn dies erwartet wird.
  • Diese Säule beinhaltet auch die Fähigkeit, den Workload während seines gesamten Lebenszyklus zu betreiben und zu testen.
  • Dieses Dokument enthält ausführliche Best-Practice-Anleitungen für die Implementierung zuverlässiger Arbeitslasten in AWS.
  • Die Serving-Ebene der Lambda-Architektur ist ein Datenspeicher, in dem die Daten aus dem Batch-Layer und dem Streaming-Layer für verschiedene Anwendungen bereitgestellt werden.
  • Die Kappa-Architektur ist einfacher zu implementieren als die Lambda-Architektur.
  • Die Lambda-Architektur ist eine Datenverarbeitungsarchitektur, die sowohl Batch- als auch Streaming-Verarbeitungsmethoden nutzt, um riesige Datenmengen zu verarbeiten.
  • Die Kappa-Architektur ist eine Datenverarbeitungsarchitektur, die alle Daten über ein Streaming-System verarbeitet.
  • Die Kappa-Architektur besteht aus zwei Ebenen: Ingestion-Layer und Serving-Layer.
  • Die Lambda-Architektur besteht aus drei Ebenen: Batch-Layer, Streaming-Layer und Serving-Layer.
  • Die Kappa-Architektur kann die Skalierbarkeit der Architektur einschränken, wenn die Datenmengen zu groß werden.
  • Die Batch-Ebene der Lambda-Architektur ist ein Datenspeicher, in dem historische Daten aus verschiedenen Quellen in einem regelmäßigen Zeitintervall geladen und gespeichert werden.
  • Hauptkomponenten der Datenverarbeitung sind Datenerfassung, Datenaufbereitung, Datenspeicher, Datenverarbeitung, Datenanalyse und Vorteile wie Flexibilität und Skalierbarkeit, Reduzierte Komplexität und Kosten, Schnelle Bereitstellung, Nachteile wie Herausforderungen bei der Integration und Verwaltung der verschiedenen Komponenten.
  • Die Kappa-Architektur ermöglicht die Echtzeitverarbeitung aller Daten.
  • Die Kappa-Architektur kann zu höheren Kosten führen als die Lambda-Architektur, da alle Daten in einem Streaming-System verarbeitet werden müssen.
  • Das Data Mesh besteht aus vier Schlüsselkomponenten: Bereichsorientiertes Dateneigentum und -architektur, Datenspeicher, Datenzugriff und Datenverwaltung.
  • Die Streaming-Ebene der Lambda-Architektur ist ein Datenspeicher, in dem Echtzeitdaten aus verschiedenen Quellen in einem kontinuierlichen Strom verarbeitet werden.
  • Beispiele für Datenverarbeitungsarchitekturen sind Fivetran, Snowflake, Databricks, Lambda-Architektur und Kappa-Architektur.
  • Die Data Mesh-Architektur ist eine Datenarchitektur, die die Datensouveränität und -eigentum auf die Bereiche verteilt, in denen die Daten erstellt und verwendet werden.
  • Flexible Datennutzung: Delta Lakes unterstützen die Verarbeitung von verschiedenen Datentypen, einschließlich strukturierter und unstrukturierter Daten.