Big-Data-Lösung

Unternehmen

Unternehmen.

FLIR is the world leader in the design, manufacture, and marketing of thermal imaging infrared cameras. Crump continued to be a director and shareholder of that company until its sale to Vishay Intertechnologies, Inc. (NYSE: VSH) in April Mr. Crump holds a B.S. in mechanical engineering from Washington State University.

Compute Canada

Datum von Dateien und Ordnern in Windows manipulieren Windows Ultimative Leistung in Windows 10 aktivieren Turbo für Windows. Frisch aus der Whitepaper-Datenbank: Aktuelle Events im Überblick: Outsourcen ohne vom Provider abhängig zu werden Sourcing Day, Wie sich Geschäftsprozesse erfolgreich outsourcen lassen Sourcing Day Aktuelle Webcasts im Überblick: Anzeige Intelligent Edge Webcast. Anzeige Data Center als Innovationsbeschleuniger Webcast.

Datenprobleme adieu Compliant mit Data Fabric. Daraus besteht Hadoop Hadoop besteht aus einem Cluster. Ersetzt Hadoop Business Intelligence im Unternehmen? Oracle, IBM und Co. Manchmal ist der Marktzugang nachvollziehbar, manchmal werden auch Nebelkerzen geworfen und vorhandene Produkte umdefiniert.

Wir geben einen Überblick über die Strategien der wichtigsten Player. Microsoft Wie über andere Unternehmen war der Softwarekonzern bis vor kurzem Mitglied in der von Qualcomm initiierten Allianz AllSeen und wechselte kürzlich in die neu formierte Open Connectivity Foundation.

Das Beispiel zeigt ein Roboter-Kit. Diese enthält bereits einige vorkonfigurierte Lösungen für gängige Internet-of-Things-Szenarien.

Beim Machine Learning können Anwender anhand bestimmter Algorithmen Muster in Daten erkennen, daraus Prognosemodelle entwickeln und gegebenenfalls präventiv Veränderungen einleiten. So können IoT-Devices auf lokale Ereignisse reagieren, lokal auf die von ihnen erzeugten Daten wirken können, während die Cloud weiterhin für Verwaltung, Analyse und dauerhafte Speicherung verwendet wird. IBM will hier neue Produkte und Services entwickeln. Deren Kernbestandteil ist demnach ein Gateway-Referenzdesign, das Daten von Sensoren und anderen vernetzten IoT-Geräten sammeln, verarbeiten und übersetzen kann.

Es handelt sich um eine abgespeckte Android-Variante, die möglichst viele Prozessoren und Connectivity-Standards unterstützen soll. Bosch hat schon mit der Übernahme von Innovations Software Technologies und mit dem Kauf von Inubit wichtige Weichenstellungen eingeleitet. Flankiert wird das Ganze von der Collaboration-Plattform "Teamcenter". Anwendervertreter reagierten überrascht und verlangten Aufklärung was die neue Mobile-Strategie bedeutet. Er stürzt mit einem Glas auf der Treppe und verliert nach einer Operation ein Auge.

Im Herbst meldet sich der US-amerikanische Manager als wieder voll einsatzfähig zurück. SCIX , a producer of large format printing equipment. Prior to joining Scitex, Mr. Ofer held various managerial positions in the emerging Israeli high tech sector and participated in different mergers and acquisitions within the industry.

Ofer holds a B. DSPG since February Seroussi served as chairman of the board of Bank Hapoalim from through Seroussi also served as the president of the Israeli Bank Association for four years. He served as a board member and as chairman of the audit committee of Bank HaPoalim from through Seroussi was the founder and head or Morgan Stanley Israel for 16 years.

He was the founder and chairman of the Mustang Mezzanine Fund. He served as the chairman of the Investment Committee of Mivtachim, Israel's largest pension fund, and was a member of various investments committees of private equity funds.

Seroussi served as a director of Israel Corp and Frutarom Industries. Seroussi also served for over a decade in Israel's Ministry of Finance, where he held several senior positions. Seroussi was a member of the team that created the Yozma Program that initiated the Venture Capital industry in Israel.

Anmelden Kontakt Reseller finden. Luft- und Raumfahrt und Verteidigung Konsumgüter. Ältere Produkte Ressourcencenter Recyclingcenter. Material-Patches Kundenfeedback Kundenbetreuung kontaktieren. Unternehmen Investor Relations Vorstandsmitglieder.

Crump holds a B. Fierko Director Edward J. McEleney Director John J. Hochverfügbarkeit ist ein weiterer Eintrag im Lastenheft; es stehen von Oracle und anderen renommierten Herstellern viele verschiedene Technologien zur Verfügung, um die diversen Szenarien abzudecken.

Konsistente Online-Backup-Mechanismen, um zur Datensicherung nicht abschalten zu müssen Überwachungsschnittstellen, um frühzeitig auf Engpässe oder Ausfälle aufmerksam zu machen Replikation, um Teilmengen von Daten logisch auf ein anderes System zu transportieren Standby-Datenbanken, um Datenbanken logisch oder physikalisch auf ein anderes System zu transportieren Cluster-Technologien, um ausfallende Komponenten automatisch zu ersetzen.

Infrastruktur Wo der Unterbau eines hochverfügbaren Systems beginnt, ist reine Definitionssache. In jedem Fall ist es natürlich sinnvoll, dort mindestens gleich hohe Verfügbarkeitsanforderungen zu stellen.

Allerdings ist in der Regel eine technische Betrachtung des Gesamtpakets sinnvoll, um mögliche Beschränkungen von Vornherein zu erkennen. Über den Kaufpreis gibt es keine Angaben. Diese sogenannten Konvergenzzeiten von Routing- und Switching-Konzepten mit den angestrebten maximalen Ausfallzeiten der Applikation oder Datenbank zu vergleichen, ist wärmstens zu empfehlen. Wird bei einem Ausfall zero data loss, also verlustfreies Weiterarbeiten gewünscht was in der Regel der Fall sein dürfte , müssen Schreib-Vorgänge an allen Zielen angekommen sein, bevor der darauf aufbauende nächste Schritt beginnt.

Damit kommen grundlegend zwei Architekturen in Betracht: Stern Server schreibt auf zwei oder mehrere Massenspeicher Auswirkung auf Latenz: Langsamster Pfad definiert die Antwortzeit Kette Server schreibt auf ein Storage-System und dieses repliziert auf ein weiteres etc. Umschalt- oder Erholungszeiten nach Ausfällen und das Lastverhalten bei Schäden wie Degraded Performance eines RAID- Arrays sind sorgfältig zu betrachten, zu beeinflussen oder mindestens zu berücksichtigen.

In der Praxis ist damit der gesamte Technologie-Stack vom Metall bis zur Applikation inklusive Operating der Infrastruktur zuzurechnen. Danach erst kann ein Cloud-Anbieter diese umsetzen und garantieren. Auch rein technisch stellen sich Herausforderungen. So ist mindestens die Verfügbarkeit der Anbindung an den Cloud-Service zu prüfen: Wie hochverfügbar ist die Anbindung an Internet beziehungsweise Weiterverkehrsnetz, das die User mit dem Backend verbindet?

Kein kleines Problem ist die sogenannte letzte Meile und die gegebenenfalls erforderliche Anbindung durch zwei oder mehrere Internet Service Provider.

Ist der Cloud-Service einmal nicht wie vereinbart verfügbar, erhält man den Schaden zwar hoffentlich ohne Anwalt und Richter ersetzt, down und zur Untätigkeit verurteilt ist man zunächst trotzdem. Es ist für jeden Fall sorgfältig zu prüfen, ob der Dienst in der Cloud gut aufgehoben ist oder ob sich das geforderte Level der End-to-end- Hochverfügbarkeit nicht im eigenen Rechenzentrum on premise sicherer und kostengünstiger umsetzen lässt.

Martin Klier Korrektur für die letzte Ausgabe In der letzten Ausgabe habe wir leider ein Autorenfoto falsch zugeordnet.

Wir bitten das Versehen zu entschuldigen. Hier die beiden richtigen Fotos. Sowohl aktive Komponenten Firewall, Router, Switch etc. Ein Faktor ist entscheidend, um überhaupt eine der hohen Verfügbarkeitsklassen ab 99,9 Prozent, was immerhin noch eine Ausfallzeit von acht Stunden und 45 Minuten im Jahr entspricht erreichen zu können. Das Ziel muss sein, eine durchgehende, systemübergreifende Redundanz in Hardware, Software, Anwendungsmanagement etc.

Dabei sind sieben OSI-Schichten definiert. Sie sorgt dafür, dass einzelne Datenpakete, Symbole oder Bits elektrisch, mechanisch, per Schall etc. Durch eine physikalische Re dundanz versuchen Netzwerk-Experten, die Funktion aufrechtzuerhalten. Eine Möglichkeit bietet hier das Link-Aggregation-Verfahren, mit dem mehrere physische LAN-Schnittstellen zu einem logischen Kanal definiert werden und diesen damit hochverfügbar machen.

LayerSwitches funktionieren wie mechanische Weichen, sind hardwarebasiert dadurch sehr schnell und verbinden verschiedene Netzwerk-Komponenten über die entsprechenden angesteuerten Ports miteinander. Die Switches entscheiden über den Weg, den ein Datenframe durch das Netzwerk nimmt. Auch in dieser Schicht ist auf Redundanz zu achten. Im Access-Bereich, der noch zu Layer 2 gehört, existiert eine hohe Portdichte. An diesen Ports hängen die verschiedenen Arbeitsplätze, die aber meist nicht redundant angebunden sind, da der Ausfall eines Rechners die Funktionsweise des Netzwerks nicht beeinträchtigt.

Allerdings kann der Ausfall eines Servers schwerwiegende Folgen haben. Deshalb sind sie beispielsweise über ein Port- Bündelungsverfahren oder Link Bundling stets redundant aufgebaut.

Dieser prüft dann, ob er eine Route kennt, die zu dieser IP-Adresse führt. Meist gibt es in dieser Schicht auch eine Default-Route ins Internet. Sind Übertragungsrouten überlastet oder fehlerhaft, ermitteln sie einen Alternativweg, der durch eine entsprechende Netz-Infrastruktur und redundante Komponenten bereits angelegt ist.

Technisch funktionieren Redundancy- Protokolle nach folgendem Schema: Jedes der beiden gedoppelten Geräte erhält eine eigene IP-Adresse. Dabei gibt es zwei Device- Setups: Es existieren ein aktives und ein passives Gerät, wobei letzteres nur bei Ausfall des bisher aktiven Geräts einspringt.

In der zweiten Variante sind beide Geräte aus Load-Balancing-Gründen aktiv und teilen sich damit die Paket-Übermittlung untereinander auf. Dieses Konzept ist technisch und finanziell sinnvoll, da so die relativ teuren Switch-Ports und deren verfügbare Bandbreite effizient sowie ressourcenschonend genutzt werden können.

Allerdings hat diese Variante den Nachteil, dass sich im schlechtesten Fall die Last des Traffic-Aufkommens von einem einzelnen Gerät nicht mehr abfangen lässt. Diese Überbuchung kann zu Betriebs-Einschränkungen beispielsweise bei der Bereitstellung von Bandbreite bis hin zum Ausfall eines Dienstes führen.

Aus der Hochverfügbarkeitsperspektive ist deshalb das erste Setup zu empfehlen. Beispiele dafür sind etwa Man-in-the-Middle-Angriffe, die die Kommunikation zwischen Client und Zielsystem mitlesen oder beispielsweise durch falsche Routen Route Poisoning Verkehr umleiten und kompromittieren, oder Tunneling, mit dem sich Firewalls umgehen lassen.

Deshalb sollte das Primärziel jedes IT-Verantwortlichen sein, das eigene Netzwerk möglichst sicher gegen externe und interne Cyber-Bedrohungen abzuschotten.

Firewalls zählen heute wie Daten-Backup-Systeme zum Sicherheitsstandard jedes Unternehmens, so eine aktuelle Studie siehe pdf. Ziel dieser Angriffe sind meist unternehmenskritische Informationen. Heute benötigt es jedoch eine modernere Netzwerk-Architektur, da sich die Anforderungen an Firewalls durch die Zunahme von mobilen Endgeräten, Anwendungen, Homeoffice etc. Erlaubt ein Unternehmen unter anderem das Surfen im Internet, lässt sich dafür über herkömmliche Firewalls nur eine pauschale Freigabe erteilen.

Deshalb stellt der Aus- und Eingang zum Internet, der bei den meisten Netzwerken über Port 80 oder bei verschlüsselten Webseiten über Port erfolgt, einen besonders beliebten Angriffspunkt für Schadsoftware und Hacker dar.

Dagegen findet bei den Next-Generation-Firewalls eine tiefergehende Analyse des Traffics beziehungsweise der Datenpakete statt.

Dabei werden unter anderem Datenpakete und Verbindungen genauer geprüft, etwa daraufhin, welche Anwendungen sowie Dienste sich dahinter verbergen und angesteuert werden. Die unterschiedlichen Upgrademöglichkeiten stellt Experte Mike Dietrich vor. Am Abend steht Networking bei leckerem Essen auf dem Programm.

Probleme werden direkt auf den VMs nachgestellt und geklärt ein Erfahrungsaustausch, der keine dummen Fragen kennt. Was ist jetzt eigentlich mit der Multitenant-Architektur? Der offizielle Teil endet mit dem Mittagessen. UTM-Lösungen lassen sich als Firewall- Appliances definieren und stehen für ein multifunktionales Sicherheitskonzept, mit dem sich unternehmensspezifische Sicherheitsstrategien im Unternehmensnetz durchsetzen lassen.

Ein Vorteil ist, dass Sicherheitstechniken und -funktionen, die bisher auf verschiedene Systeme verteilt waren, nun in einer Lösung vereint vorliegen. UTM-Lösungen sollen vor allem die Netzwerksicherheit zentral steuerbar machen und die Applikations-Schicht vor den Next-Generation-Bedrohungen schützen, ohne die Performance oder das Netzwerk zu belasten. Sie basieren auf unternehmensspezifischen Anforderungen also auf klaren und umfassenden Definitionen, welche Ereignisse sicherheitsrelevant sind und wie mit welcher Priorität darauf zu reagieren ist.

Damit Unternehmen auf heutige sowie künftige Herausforderungen angemessen reagieren können, müssen Netzwerke der nächsten Generation Aspekte wie Flexibilität, Netzwerk-Intelligenz und eine verteilte Steuerung in sich vereinen. Sich stetig verändernde IT-Landschaften und geschäftliche Anforderungen verlangen dabei dynamische und schnell anpassbare Systeme.

Durch die Fokussierung auf ein eventuell Cloud-optimiertes, skalierbares und adaptives Netzwerk können Netzwerk- Betreiber die Einschränkungen bewältigen, mit denen sie konfrontiert werden. Gleichzeitig stellen sie aber auch ein Sicherheitsrisiko dar, weil die Netzwerk-Sicherheit in fremde Hände gegeben wird.

Wenn man jedoch von Anfang an den Sicherheitsaspekt berücksichtigt und hier die Sicherheit des Dienstes und der Verwaltung, können sich deutsche Unternehmen für Cloud-Dienste entscheiden, die sich in die bestehende IT-Landschaft integrieren lassen. Zudem sollten sie zumindest kritische Unternehmensdaten auf dem eigenen Firmenserver belassen und nur Cloud-Provider wählen, die den deutschen Datenschutz-Richtlinien unterliegen.

Ein anderer wichtiger Punkt ist die Einbindung sowohl lokaler als auch auswärts tätiger Mitarbeiter. Dank moderner und zentraler Netzwerksystem-Lösungen lassen sie sich zuverlässig in das Netzwerk integrieren. Die Systeme sind schnell und einfach an aktuelle sowie kommende Business Cases anpassbar. So können Mitarbeiter unternehmensweit auf dieselben Geschäftsanwendungen und -dienste zugreifen mobil oder stationär. Dadurch lassen sich beispielsweise Applikationen wie etwa die Bandbreiten-Nutzung priorisieren und gegebenenfalls einschränken Out-of-Band-Management: Damit können Daten bestimmt werden, die nicht innerhalb des normalen Datenstromes geroutet werden, sondern einen gesonderten Weg nehmen, etwa über eine zweite Internet-Anbindung circular Informationssysteme GmbH.

Als Basis sollte eine neue, stabile sowie hochverfügbare Oracle- Infrastruktur dieser Anforderung entsprechen. Das Ziel-Design wurde zudem zugunsten einer schnellen Wiederherstellbarkeit und einer möglichst unterbrechungsfreien Wartbarkeit erarbeitet. Die anfängliche Idee, hierauf ein sich über beide Rechenzentren erstreckendes Oracle-Stretched-Cluster zu realisieren, wurde verworfen, da sich im Laufe des Projekts im Hinblick auf die Hochverfügbarkeit der Applikationsserver frühzeitig für ein NetApp-Metrocluster im Master-Slave-Modus entschieden wurde.

Dies hätte im Fehlerfall ein manuelles Umschalten des zugrunde liegenden Storage bedeutet. Somit galt es, zusätzlich eine Vorproduktions-, eine Entwicklungs- und eine sogenannte Maintenance -Umgebung aufzubauen.

Letztere kann als reine Spielwiese für Oracle-DBAs bezeichnet werden, auf der beispielsweise das Einspielen von Patches als Erstes vorgenommen wird, bis diese dann sukzessive von Stage zu Stage bis in die Produktion eingerichtet werden.

In Summe wurden also dreizehn Oracle-Datenbank-Server vier für Maintenance, einer für Entwicklung, vier für Vorproduktion und vier für Produktion mit jeweils mindestens drei Datenbanken aufgebaut, ohne hierbei auf die neue Multitenant-Architektur zurückzugreifen.

Dieser Herausforderung konnte man durch Einsatz der Snapshot-Technologie, die wiederum NFS-Shares voraussetzt, problemlos gerecht werden, was sich im späteren Verlauf des Projekts bestätigen sollte. Zu Beginn des Projekts nahm man an einem Beta-Programm dieser neuen Komponente für das SnapCenter teil, wobei selbige ausführlich geprüft wurde und anfängliche Fehler im direkten Austausch mit NetApp ausgemerzt werden konnten.

Durch diese Automatisierungsmethode ist sichergestellt, dass sich die Konfigurationen angefangen von OS- Usern und -Gruppen über Kernel-Parameter bis hin zu Filesystemen auch im kleinsten Detail nicht unterscheiden.

Später wurden zusätzlich definierte Checks durch das Tool ServerSpec durchgeführt, um auch zukünftig Stage-übergreifend vor ungewünschten Änderungen bewahrt zu bleiben. Für jede Datenbank wurden jeweils sieben NetApp-Volumes eingerichtet.

Das Sichern der Archive-Logs hingegen ist für das SnapCenter im Hinblick auf ein mögliches Recovery oder Cloning obligatorisch, wodurch diese also zwingend auf einem Volume abgelegt werden müssen, von dem Snapshots erzeugt werden.

Final stellen sich die Filesysteme für eine Datenbank wie in Tabelle 1 dar, wobei lediglich für die ersten beiden Volumes Snapshots erzeugt werden. Interessant ist dabei, dass die Control-Files nicht zwangsläufig auf einem Volume liegen müssen, von dem auch Snapshots generiert werden. Parameter jeweils vier unterschiedliche IP-Adressen pro Volume definiert werden müssen.

So kann man davon ausgehen, dass auf der Standby-Seite keine korrupten Blöcke vorhanden sind und bei Bedarf wäre ein Block Media Recovery auf der Primär-Datenbank möglich. Die Voting Disks sind also von einem entfernten Storage gemountet worden, wodurch man sich eine höhere Ausfallsicherheit versprach.

Infolgedessen wurde das Volume mit der dritten Voting Disk wieder auf das jeweils lokale Storage verlegt. Das funktioniert auch ganz gut und ist nach Ansicht der Autoren so besser strukturiert. Daraufhin wurde vorsichtshalber in der. Da für die Entwicklungsumgebung nur ein Server bereitgestellt wurde, installierte man hier eine Single-Instance-Konfiguration. Dies erwies sich allein bei der Ansible- Automatisierung durchweg als Spezialfall.

Zudem hatte man sich einen Bruch in der Abbildung des Staging eingebaut. Fazit Nachdem die grundlegenden Planungen abgeschlossen waren, erstreckte sich der Aufbau der neuen Infrastruktur bis hin zum produktiven Betrieb der Datenbanken über einen Zeitraum von etwa einem halben Jahr.

Hierzu sei aber gesagt, dass zwischenzeitlich jede der vier Umgebungen im Rahmen von streng definierten Abnahmetests umfangreich geprüft wurde. Die Zielsetzung der hohen Verfügbarkeit wurde erreicht. Bei einer geplanten Stromabschaltungs-Übung des gesamten Primary-Rechenzentrums beispielsweise wurden die Datenbanken und das Storage absichtlich nicht in den normalen Ablaufplan integriert. Dabei hätte man vorab einen Data Guard Switchover durchführen können; stattdessen konnte problemlos ein Failover initiiert werden, nachdem der Strom der gesamten Infrastruktur im ersten RZ gekappt wurde.

Es sei erwähnt, dass zu diesem Zeitpunkt die Datenbanken noch keinen produktiven Status hatten. Durch die Aktivierung von Flashback auf allen Datenbanken ist man in der Lage, nach einem Failover durch ein Reinstate das Data Guard zeitnah wieder in einen konsistenten Zustand zu versetzen.

Hierbei wird übrigens der Modus Maximum Availability eingesetzt. Unschön ist weiterhin das leidige Thema der Java-Patches. Um die Datenbank per Snapshot zu sichern, wird diese kurzzeitig in den Backup-Modus alter database begin backup; gesetzt und die Verpointerungen auf Storage-Ebene gesetzt. Dieser Clone kann sogar zeitlich in der Vergangenheit liegen, je nach Vorhaltezeit der Snapshots. Somit ist es durch SnapVault innerhalb weniger Minuten möglich, auch einen bis zu 35 Tage alten Snapshot für den Aufbau eines Clone zu verwenden.

Wichtig in der Gesamt-Konstellation ist jeweils der Einsatz eines Secondary-Storage, worauf die aktuell erstellten Snapshots der Datenbank per SnapVault- Funktion kopiert werden, da ein Snapshot allein noch kein sicheres Backup darstellt. Dies wäre nur über ein Offline-Backup möglich gewesen.

Alles in allem wurde eine stabile, zuverlässige Oracle-Infrastruktur geschaffen, die ihrer Bezeichnung alway online bisher voll gerecht wird. Eine solche ist für Klein- und Mittelbetriebe oft unerschwinglich. Dies führte die Autoren zur Frage: Wie kann eine neuartige Infrastruktur konzipiert werden, die gleichzeitig hochausfallsicher, universell einsetzbar und einfach zu betreiben ist; noch dazu kostengünstiger als eine vergleichbare Enterprise-Lösung?

Eine ambitionierte Truppe machte sich auf die Suche und berichtet in diesem Artikel von der verwendeten Technologie und vom innovativen Ergebnis. Die eingesetzten Knoten basieren auf Standard-xArchitektur und verwenden ei. Die Überlegung war, dass im Falle eines unvorhergesehenen Ausfalls eines Knotens sichergestellt ist, dass der zweite Knoten mit minimaler Unterbrechung Cold failover den Betrieb fortsetzt. Das Konzept ging auf. Das in Abbildung 1 dargestellte Design erlaubt es, dass die Speicher-Architektur für den Hypervisor transparent ist.

Im Gegensatz hierzu werden schreibende Operationen erst als geschrieben angesehen, sobald die Daten auf beiden Knoten persistiert wurden. Netzwerk-Architektur Bei der Gestaltung des Netzwerks ist es notwendig, eine redundante Verbindung exklusiv für die Synchronisation zwischen den Knoten miteinzubeziehen siehe Abbildung 2. Die Folge ist, dass der Betrieb nicht unterbrochen wird und sich die Daten zu jedem Zeitpunkt in einem konsistenten Zustand befinden.

Die Problematik ist, dass sich beide Knoten als neuer Master deklarieren. Dies führt zu Inkonsistenzen, da beide Datenmengen weiterhin gepflegt werden, allerdings keine Synchronisation zwischen diesen stattfindet. Die Herausforderung bei einem unvorhergesehenen Hardware-Ausfall ist, schnellstmöglich die Abwesenheit eines Knotens zu erkennen und die Datenkonsistenz zwischen den Knoten zu gewährleisten.

Wird nun die Replikationsverbindung komplett unterbrochen, muss der zu schreibende Datenverkehr auf Knoten 1 eingefroren werden. Szenario 1 Falls das Management-Netzwerk ebenfalls keine Verbindung aufweist, wird Knoten 1 heruntergefahren, um die Daten-Integrität sicherzustellen. Netzwerk-Architektur den beide Knoten heruntergefahren, da die Synchronisation über das Replikations-Netzwerk nicht mehr erfolgen kann.

Szenario 3 Falls das Management-Netzwerk erreichbar, jedoch Knoten 2 nicht erreichbar ist, wird Knoten 1 zum neuen Master des Clusters. In der Rolle des Masters werden die virtuellen Maschinen, die als hochverfügbar markiert sind, auf Knoten 1 gestartet. Der Status von Knoten 2 bleibt weiterhin unklar. Falls dieser ebenfalls eine aufrechte Verbindung in das Management-Netzwerk besitzt, ist dies die einzige Situation, in der ein Split Brain unausweichlich ist.

Die Sicherung erfolgt, wie die Wiederherstellung von virtuellen Maschinen, genauso nahtlos im Oracle VM Manager und erfordert keinerlei zusätzliche Software. Fazit Gerade im digitalen Zeitalter können sich auch kleine Unternehmen Unterbrechungen des Betriebs oder Service- Ausfälle nicht erlauben. Die logische Schlussfolgerung ist daher, auf intelligente, ausfallsichere Lösungen zu setzen. Das hier vorgestellte schlanke Produkt BlueBoxx ermöglicht es heute Klein- und Mittelbetrieben, Enterprise- Funktionalitäten zu nutzen.

Gerade im Umfeld von Oracle sind smarte Lösungen gefragter denn je. Mithilfe des Monitorings ist eine detailgenaue Überwachung des Cluster-Zustands ersichtlich und erlaubt eine übersichtliche Erstdiagnose.

Dieser deckt jedoch nur ein Teilgebiet ab, nämlich die Server-Redundanz. Der Artikel zeigt die Grundlagen, um die häufigsten Stolpersteine bereits von Beginn an umgehen zu können. Zuerst einmal stellt sich die Frage, warum man Data Guard überhaupt benötigt. Typischerweise befinden sich diese Komponenten allerdings in einem Serverraum, wenn nicht sogar im gleichen Schrank.

Für die Ausfallsicherheit über Rechenzentrumsgrenzen hinweg ist ein zweites System notwendig, das gegebenenfalls die Aufgaben übernehmen kann.

An diesem Punkt kommt Data Guard ins Spiel. Man hält auf einem entfernten System eine Kopie der Produktiv-Datenbank durch permanentes Nachspielen der in den Redologs aufgezeichneten Transaktionen auf dem aktuellen Stand.

Diese Umgebung mit Primär- und Standby-Datenbank wird durch Data Guard verwaltet und ermöglicht geplantes sowie ungeplantes Umschalten zwischen beiden Datenbanken. Im Desaster-Fall lässt sich somit innerhalb von Minuten die volle Funktionalität durch die Aktivierung des Standby-Systems wiederherstellen. Das beginnt bereits bei der Namensgebung. Dazu muss man wissen, welche Namen und Parameter es überhaupt gibt siehe Tabelle 1.

Es ist aber zu beachten, dass man die Rollen auch tauschen kann dann sind diese Namen irreführend. Der Service-Name wird dann entsprechend unabhängig von Rollen etc. Diese Art der Namensgebung sollte also von Anfang an konsequent verfolgt werden, auch wenn man zu Beginn noch keinen Data Guard verwenden will. Man ist jedoch bereits für zukünftige Entwicklungen gerüstet. Vorbereitung der Quell- Datenbank Bevor man nun eine Data-Guard-Umgebung aufbaut, bereitet man die Quell- Datenbank soweit es geht vor, um den Aufwand möglichst gering zu halten.

Die Parameter zur Namensgebung wurden bereits erläutert. Um ein Re-Instanziieren nach einem Failover zu vereinfachen, aktiviert man weiterhin Flashback Database siehe Listing 1.

Um die Standby-Datenbank möglichst synchron zur Primär-Datenbank halten zu können, sind Standby-Redologs erforderlich. Diese kann die Transaktionen dann direkt einspielen und nicht erst beim Archivieren eines Redologs auf der Primärseite.

Am besten verwendet man einen separaten Zahlenbereich für die Gruppennummer, um die Dateien direkt unterscheiden zu können siehe Listing 2. Zur maximalen Sicherheit gegenüber Datenverlust sind noch einige weitere Parameter relevant, die in Tabelle 2 aufgelistet sind. Zudem benötigt man einen statischen Listener-Eintrag in der listener. Flashback Database ist also auf der Kopie nochmals separat zu aktivieren. Die Konfiguration wird in zwei gespiegelten Dateien verwaltet, ähnlich den Kontroll-Dateien der Datenbank.

Den Namen und Speicherort dieser Dateien legt man entsprechend über Initialisierungsparameter fest. Natürlich muss man das sowohl auf der Primär- wie auch auf der Standby-Datenbank einstellen. Man verwendet für die Verbindung zu Primär- und Standby-Datenbank am besten die Easy-Connect- Syntax, da man so unabhängig von Einstellungen und Fehlern in der tnsnames. Initial wird die Konfiguration mit einer Primär-Datenbank erstellt siehe Listing 7 , als Nächstes fügt man die Standby-Datenbank hinzu siehe Listing 8.

Nun stellt man den Redolog-Transport in beide Richtungen auf synchrone Übertragung, um die Transaktionen möglichst ohne Zeitverzug in die Standby-Redologs zu übertragen siehe Listing 9. Als Letztes stellt man noch den Protection Mode auf die gewünschte Stufe. Typischerweise ist das Maximum Availability, dabei werden die Transaktionen nach Möglichkeit synchron übertragen, die Primär-Datenbank stoppt aber nicht, wenn die Standby-Datenbank gerade einmal nicht erreichbar ist. Den Status kann man nach einigen Sekunden entsprechend überprüfen siehe Listing Damit ist die Konfiguration abgeschlossen.

Auch wenn weder Cluster noch. Um die Data-Guard-Umgebung für die Applikationen unabhängig von der Rollenverteilung zugänglich zu machen, müssen sich die Applikationen über einen separat einzurichtenden Service verbinden. Dieser wird in der Grid Infrastructure auf beiden Seiten eingerichtet und startet abhängig von der Rolle der Datenbank.

Zusätzlich kann der Service noch verschiedene Einstellungen für das Failover enthalten siehe Listing Benutzen die Applikationen nun diesen TNS-Alias, wird die Verbindung immer mit der aktuellen Primär-Datenbank hergestellt, ohne dass irgendwelche Anpassungen erforderlich sind. Man kann damit seine Datenbanken auf einfache Art und Weise auf ein anderes System spiegeln und dort aktuell halten.

Im Desasterfall, also dem kompletten Ausfall des Datenbank-Systems, braucht man dann lediglich ein einziges Kommando, um die Standby-Datenbank zu aktivieren und weiterarbeiten zu können.

Man legt also die Datenbank-Ressourcen mit den passenden Einstellungen an, einmal für die Primär- siehe Listing 11 und einmal für die Standby-Datenbank siehe Listing KG Daten sind für viele Unternehmen von zentraler Bedeutung. Damit steigen auch die Anforderungen an die Verfügbarkeit von Datenbanken. Deshalb bietet Oracle viele Technologien an, um die Daten in der Datenbank zuverlässig aufzubewahren und zu jeder Zeit Zugriff darauf zu ermöglichen.

Dabei stehen nicht nur ungeplante Ausfälle von Rechnern im Fokus, sondern auch die Bereitstellung der Daten während eines Updates. Neuerdings ist es dabei auch egal, wo sich die Daten befinden ob im Unternehmen oder in einer Public Cloud. Mit jeder eingesetzten Funktionalität gehen andere Voraussetzungen und auch unterschiedliche Anforderungen an den Betrieb einher, sodass man leicht die Übersicht verlieren kann.

Denn je mehr Absicherung gewählt wird, desto mehr Aufwand und natürlich auch Kosten stecken dahinter. Um die passende Hochverfügbarkeits- Architektur zu wählen und damit den Aufwand abzuschätzen, sollte erst einmal für jede Applikation die Auswirkung von Datenverlust geschätzt werden.

Dabei sind insbesondere drei Kennzahlen von höchstem Interesse: Damit das nicht zu komplex wird und nicht das Risiko besteht, einen Fehler bei der Konfiguration und Implementation zu machen, bietet es sich an, die Datenbanken in unterschiedliche Risiko-Gruppen einzuteilen.

Diese ordnet man dann entsprechenden Referenz-Architekturen zu. Bronze, Silber, Gold und Platin. Letztendlich ist dies jedoch nur ein Vorschlag; welche Technologie man in welchem Bereich einsetzen möchte, ist letztendlich jedem selber überlassen. In jedem Fall ist es sinnvoll, sich auf einige wenige Level zu beschränken.

Dazu wird eine Check-Summe während der Laufzeit ermittelt. Damit lassen sich Daten-Korruption im Memory verhindern, beim Lesen auf Platte Korruptionen erkennen und, wenn möglich, vor dem Schreiben vermeiden. Implizit dienen alle diese Mechanismen dazu, Daten- Korruption vorzubeugen. Zur externen Sicherung der Datenbanken dient der Recovery Manager, der die Datenbank im laufenden Betrieb sichert und somit generell eine vollständige Wiederherstellung erlaubt.

Sollte das komplette System inklusive aktueller Redologs nicht mehr verfügbar sein, wäre der letzte Zeitpunkt zur Wiederherstellung das letzte Backup.

Dabei kann neben dem Backup auf Festplatte oder Band-Laufwerken das Backup auch automatisch verschlüsselt in die Oracle Cloud gelegt sein. Damit wäre Oracle für das weitere Vorhalten der Sicherungen verantwortlich siehe Abbildung 2.

Damit werden nicht nur die Datenbanken bei der Sicherung entlastet, sondern es kann auch viel Plattenplatz eingespart werden. Eine Recovery Appliance sichert viele Hunderte Datenbanken schnell und einfach. Trotz inkrementellen Backups ist das Wiederherstellen der Datenbanken so schnell wie bei einem Full Backup, die inkrementellen Backups müssen bei einer Recovery Appliance also nicht nachgefahren werden.

Es empfiehlt sich aber in jedem Fall, ein lokales Backup für das schnelle Zurücksichern und ein Backup in der Cloud oder auf Band extern für den Disaster-Fall vorzuhalten. Dies ermöglicht, Server-Ausfälle im Sekunden-Bereich abzufedern und somit einen kontinuierlichen Zugriff auf die Datenbank zu erlauben.

Damit müssen die In-Memory-Bereiche des ausgefallenen Knotens erst einmal von Platte neu geladen werden. Dies geschieht zwar automatisch, allerdings dauert der Zugriff auf die Daten entsprechend länger, da, solange nicht alle Daten im Memory populiert wurden, auch auf einen Plattenzugriff ausgewichen werden muss siehe. Damit sendet die Datenbank ihre Online-Redologs direkt asynchron dorthin, um im Falle eines Komplett-Verlustes kaum Daten zu verlieren.

Diese Funktion ist dabei Plattform- und Endianness-unabhängig, da im Gegensatz zu Data Guard das Onlinelog nur gespeichert und nicht angewandt wird. Da Data Guard generell nur ein Siebtel des Netzwerk-Volumens gegenüber Storage-basierten Replikations-Mechanismen benötigt und nebenbei auch die gesendeten Blöcke prüft, ist diese Lösung ein viel besserer Schutz als herkömmliche Standby-Varianten, wie man sie häufig von Drittanbietern findet.

In diesem Umfeld hat Data Guard in der Version 12c viele Verbesserungen gebracht, da nun fast alle Daten- Typen bei diesem Vorgehen unterstützt werden. Damit liegt die Datensicherung bei Oracle selbst siehe. Neben vielen neuen Whitepapern gibt es seit Kurzem auch ein Utility oratcptest , um die Netzwerk-Umgebung zu prüfen. Dies ist insbesondere interessant, um die Latenzzeiten und die notwendige Bandbreite für alle Datenbanken zu ermitteln, die mit Data Guard gesichert werden sollen. Selbstverständlich kann damit auch die Verbindung zur Oracle Public Cloud getestet werden.

Data Guard Synchronous Redo Transport: In den Fällen, in denen eine aktive logische Replikation gewünscht ist, bietet sich Oracle Golden Gate an. Es ermittelt aus den Datenbank-Redologs die jeweiligen Transaktionen und fährt diese im aktiven offenen Standby-System nach. Im Gegensatz zu Data Guard ist es immer asynchron und aufwändiger zu implementieren, bietet aber den Vorteil, unterschiedlichste Versionen zu unterstützen, nicht nur die Oracle-Datenbank.

Selten sind Hochverfügbarkeits-Umgebungen auf Datenbanken beschränkt und beim Umschalten auf die Standby- Datenbank ergibt sich die Notwendigkeit, auch Applikationen und Applikationsserver umzuschalten. Damit dies nicht manuell geschehen muss, bietet der Enterprise Manager den sogenannten Site Guard an, der den kompletten Umschaltvorgang automatisieren kann.

Eine weitere Technologie, um Applikationen auch das Arbeiten in unterschiedlichen Applikationsversionen zu erlauben, ist Edition Based Redefinition. Dabei kann die Applikation zur Laufzeit auf unterschiedliche Applikations-Packages zugreifen. Dies muss aber von der Applikation programmiert worden sein und geht deshalb etwas über reine Datenbank-Funktionalität hinaus.

Es ist auch ein gutes Beispiel dafür, dass die Platin-Technologien durchaus mehr Aufwand erfordern, möchte man wirklich vom kompletten Technologie-Spektrum profitieren. Global Data Services kann insbesondere bei letztem Vorgehen die Funktionalität erweitern, da es das Routing für Applikationen an den besten Service übernimmt. Fazit Welche MAA-Technologien letztendlich für welche Datenbanken zur Verfügung stehen und wie die unterschiedlichen Level dabei aussehen, entscheidet jeder selbst.

Das komplette Spektrum ist nur bei wenigen Kunden im Einsatz. Für Oracle hat MAA einen recht hohen Stellenwert, wie man auch an der Vielzahl der Whitepaper erkennen kann, die in der letzten Zeit veröffentlicht wurden. Auch mit neuen Datenbank-Versionen wird es weitere Entwicklungen in diesem Bereich geben, so sind zum Beispiel einige Beschränkungen von Application Continuity bald nicht mehr relevant.

Dieser Artikel erläutert aktuelle Herausforderungen im Backup-Kontext und beschreibt einen bewährten Ansatz aus der Praxis, um diese zu meistern. Oracle selbst bietet von Haus aus verschiedene technische Möglichkeiten zur Ressourcen-Optimierung, etwa in Bezug auf die Volumen-Reduktion. Dieses Potenzial nutzen bereits viele Unternehmen, doch darüber hinaus ist viel mehr möglich. Durch intelligente Automatisierung und Standardisierung bietet ein modernes Backup-Verfahren massive Mehrwerte bezüglich Transparenz, Risiko-Minimierung und Effizienz beim täglichen Betrieb.

Die Kosten können je nach Kritikalität und Dauer in die Millionen- höhe gehen. Trotz angemessener Sicherheit soll sich allerdings die Effizienz nicht verschlechtern, da mehr Sicherheit oft in Verbindung mit mehr Daten und Ressourcen gesehen wird und somit letztendlich Mehrkosten verursacht.

Es stellt sich also die Frage: Wie können Risiken minimiert werden, ohne die Effizienz zu vernachlässigen? Ein optimales Backup- Verfahren ist erforderlich, das so wenig sichert wie möglich, aber so viel wie nötig.

Erst im Fehlerfall werden Entscheider und Business wachgerüttelt und sich der Wichtigkeit einer zuverlässigen, performanten Sicherung und Wiederherstellung bewusst. Die nachfolgende Zusammenstellung nennt aktuelle Problemzonen aus der Praxis, denen es zu begegnen gilt: Das Volumen ist jedoch nur eine Seite der Medaille, denn die Last durch das Lesen der Daten ist in Bezug auf die Datenbank-Performance und letztendlich für die Applikation entscheidend.

Backup-bedingte Lese-Operationen belasten direkt das Speichersystem der Datenbank, während die eigentlichen Sicherungsdateien meistens in ein dediziertes System geschrieben werden. In der Praxis ist die Backup-Last zudem oftmals schlecht verteilt, sodass massive Engpässe entstehen, die sich negativ auf die Performance auswirken.

Häufig fehlt der Überblick darüber, was wann startet, und so kommt es zu Lastspitzen aufgrund zu vieler paralleler Backup-Operationen. Die Steuerung kann nicht auf veränderte Situationen reagieren, etwa wenn unerwartet viele Transaktionslog-Daten geschrieben werden und der Plattenplatz ausgeht. Dies führt unweigerlich zum Stillstand der Datenbank. Ein weiteres Beispiel sind wachsende Datenbanken, deren Backup-Dauer zunimmt, wodurch die Sicherungen langsam aber sicher die dafür vorgesehenen Zeitfenster überschreiten und den Geschäftszeiten in die Quere kommen.

Dies erschwert die Backup-Verwaltung, wenn der Administrator beispielsweise fünf Datenbank-Server in ein Wartungsfenster versetzen möchte und dazu auf jeden Server einzeln verbinden muss. Generell finden viele Aufgaben direkt auf jedem einzelnen Datenbank-Server statt und kosten den Administrator Zeit und Nerven. Doch was kann diese beziehungsweise was kann sie nicht?

Häufig basiert die Überwachung auf Mail-Nachrichten, die im Fehlerfall versendet werden. Übergreifende Ad-hoc-Auswertungen zum Backup-Volumen, zu Backup-Laufzeiten, zu laufenden und fehlgeschlagenen Sicherungen müssen manuell erstellt werden und sind somit zeitaufwändig.

Auch den unterschiedlichen Zielgruppen als Report- Empfänger wird wenig Beachtung geschenkt. Interessante Auswertungen für Management und Entscheider fehlen gänzlich oder lassen sich nur mühsam in manueller Arbeit erstellen. Umfassende Transparenz auf Knopfdruck ist vielerorts ein Wunschdenken. Wiederherstellung Weil ein Backup seit Jahren funktioniert, ist dies keine Garantie, dass auch die Wiederherstellung einwandfrei klappt.

Die Erfahrung zeigt, dass solche Vorgänge länger dauern als angenommen oder nicht so reibungslos funktionieren wie gedacht. Dies führt zu längeren Ausfallzeiten im Fehlerfall und letztendlich zu mehr Kosten.

Anwendungszwecke einer Sicherung Bevor die Frage geklärt wird, wie eine optimale Sicherung aussehen könnte, sollte sich ein Unternehmen darüber im Klaren sein, wozu die Backups überhaupt verwendet werden. Jedoch kann ein Backup in der Praxis für weit mehr verwendet werden, wodurch je nach Anwendungsfall unterschiedliche Anforderungen bestehen. Insbesondere für den Desaster-Fall glauben teilweise Administratoren, dass eine Hochverfügbarkeitslösung wie Data Guard ein Backup ersetzt.

Diese Aussage ist natürlich nicht allgemein gültig. Klar ist die Hochverfügbarkeitslösung die erste Wahl, wenn beispielsweise das primäre Rechenzentrum ausfällt.

THE FABRIC THAT MARKET LEADERS ARE MADE OF

Die Daten dieser Datei sind ein wenig technischer als die Tabelle und in Listing 4 in Auszügen dargestellt. Ein weiterer Vorteil sind die sehr attraktiven Preise, die selbst für kleine Unternehmen erschwinglich sind.

Closed On:

Darüber hinaus haben sich folgende Tipps als sehr wertvoll herausgestellt:

Copyright © 2015 wholesumfamilyfarms.info

Powered By http://wholesumfamilyfarms.info/