Kostenfreie Erstberatung
Jetzt anrufen!
Hervorragend bewertet - Stand 2019
Ihr münchner für
IT Support
IT Betreuung
IT Wartung
Server & Client Wartung
Malware Entfernung
IT Sicherheit
esenbyte
usb
storage
security
IT Service
Ihr kompetenter IT Profi für kleine und mittelständische Unternehmen
Ihr IT Service in München


Slider

News

In unseren News finden Sie Fachartikel über allgemeine Themen Rund um IT

Sonntag, 26 Januar 2020 19:48

Das OSI-Referenzmodell – Open System Interconnection

geschrieben von

Das OSI-Referenzmodell – Open System Interconnection

Das sogenannte Schichtenmodell (OSI-7) befasst sich mit Layer 1-7, das für die herstellerunabhängige Kommunikation der Systeme zuständig ist. Somit sind diese Layer - mehr oder weniger - kohärent, hängen zusammen und jede Schicht (Layer) offeriert der nächsten Schicht definierte Dienste, aber auch für die Schicht, welche darunter liegt. Eine Unterteilung dieser Schichten wird durch Schnittstellen geregelt. Somit ist eine Adaption und ein Austausch von einzelnen Layern möglich, ohne eklatante Gesamtsystemänderungen vornehmen zu müssen.

Die Layer 1-4 sind die transportorientierten Schichten – physikalischer Datentransport bis zu den Endpunkten der Systeme – und die Layer 5-7 sogenannte anwendungsorientierte Schichten – die Ägide der Schnittstellen.

Im OSI-Modell selbst ist kein Übertragungsmedium (Verbindungskabel) vordefiniert.

Layer 1: Physical, Bitübertragungsschicht

Die Zuständigkeit dieses Layers liegt im Bereich der physikalischen Transportebene von digitalen Informationen, den Bits (binary digit).

Es existieren spezifizierte Schnittstellen wie etwa elektrische, über Funk, mechanische oder optische, deren Übertragungseigenschaften und Funktion zum Übertragungsmedium zuständig sein können.

Layer 2: Data Link, Datensicherungsschicht

Dieser Schicht liegt die Obliegenheit zugrunde, unverfälschten Datentransport über einen einzelnen Übermittlungsabschnitt zu garantieren.

Eine Art Flusssteuerung überwacht die vollständige und korrekte Übertragung der Daten von der darunterliegenden Schicht.

Die PDU (Protocol Data Unit) in diesem Fall ist das “Frame”- die physikalische Adressierung. Diese ist zuständig, um Ziel- und Quelladressen zu definieren, ist schichtspezifisch und wird auch Hardware- bzw. MAC-Adresse genannt. Ebenso dient es zur Datenflusssteuerung von Informationen und besteht aus Nutzdaten des Pakets der Vermittlungsschicht. Schlussendlich beinhaltet es eine Prüfsumme, welche zur Gewährleistung der Datenintegrität - das Bemerken von Manipulation der Daten – existiert.

Die Layer 1 und 2 sind für den Netzzugang verantwortlich, wobei Protokolle bzw. Technologien wie LAN (Local Area Network) und WAN (Wide Area Network) eine tragende Rolle einnehmen.

Layer 3: Network, Vermittlungsschicht

Diese Schicht ist für die Überbrückung geografischer Entfernungen zwischen den Endsystemen durch Einbeziehung von Vermittlungssystemen zuständig.

Hierbei wird die zeitlich und logisch getrennte Kommunikation zwischen differierenden Endsystemen gesteuert.

Die PDU hier, welches als solches den Zugang zum Internet ermöglicht und das Protokoll IP (Internet Protocol) - logische Adressierung - definiert, ist das Paket.

Layer 4: Transport, Transportschicht

Die Rolle dieser Schicht befasst sich mit der Expansion von Verbindungen zwischen Endsystemen zu Teilnehmerverbindungen. Als letzte transportorientierte Schicht, bildet diese die Verbindungsschicht zu der anwendungsorientierten Schicht.

Des Weiteren besteht die Aufgabe und damit verbundene Hardware darin, die Zuweisung zu Anwendung mit Portnummern zu versehen bzw. zuzuweisen, Segmentierung, Zuverlässigkeit sowie Flusskontrolle zu gewährleisten. Die PDU hierbei, welche die Protokolle TCP (Transmission Control Protocol) - verbindungsorientiert – und UDP (User Datagram Protocol) - verbindungslos- verwendet, ist das Segment.

Layer 5: Session, Sitzungsschicht

Die Zuständigkeit besteht darin, einen geordneten Ablauf des Dialogs zwischen den Endsystemen zu ermöglichen.

Darüber hinaus verwaltet und legt sie fest, welche Berechtigungsmarken für die Kommunikation gelten.

Schlussendlich ist sie auch für den Auf- und Abbau einer Sitzung, Login und die Passwörter zuständig.

Layer 6: Presentation, Darstellungsschicht

Sie ist zuständig für den gemeinsamen Zeichensatz und die gemeinsame Syntax.

Des Weiteren wandelt sie die lokale Syntax in die für den Transport festgelegte Syntax um, umgekehrt das Gleiche.

Ergo besteht die Aufgabe darin, Dateiformate zu erstellen, Verschlüsselung zu ermöglichen sowie Komprimierung der Daten.

Layer 7: Application, Anwendungsschicht

Die letzte Schicht befasst sich mit der Steuerung der untergeordneten Schichten, übernimmt die Adaption an die jeweilige Anwendung und stellt dem Anwendungsprogramm die Verbindung zur Außenwelt zur Verfügung. Auch Benutzerschnittstelle genannt.

Layer 5-7 beziehen sich auf die Anwendung, nutzen die PDU Daten und Protokolle wie: FTP, HTTP, SMTP, POP3, SSH, DNS, TFTP, DHCP.

Dienstag, 14 Januar 2020 23:55

Das sichere Back-Up (Bonus)

geschrieben von

Datenverluste sind allgegenwärtig. In manchen Fällen kann eine Wiederbeschaffung gelingen, in anderen wiederum nicht. Aber soweit muss es gar nicht kommen, denn es gibt verschiedene Mittel zur Vorbeugung. In dieser Artikelserie, bestehend aus vier Teilen, beschäftigen wir uns mit Datensicherung.

 

Teil 1: Datenverlust - Wo lauern überhaupt die Gefahren?

Teil 2: Welche Techniken gibt es zur Datensicherung?

Teil 3: Wie funktioniert die 3-2-1 Back-up-Strategie?

Teil 4: Und wenn es zu spät ist, wie können Daten gerettet werden?

Bonus: Datenrettung bei versehentlich formatierten und mit VeraCrypt verschlüsselten Festplatten

Datenrettung bei versehentlich formatierten und mit VeraCrypt verschlüsselten Festplatten

Sie haben eine Festplatte versehentlich formatiert, welche Sie mit VeraCrypt verschlüsselt hatten? Kein Grund zur Panik! Ihre Daten können Sie unter bestimmten Voraussetzungen trotzdem noch wiederherstellen. In diesem Bonus-Teil unserer Artikelserie bieten wir hierfür eine Anleitung an:

ACHTUNG! Bitte lesen Sie den Artikel einmal komplett durch, bevor Sie beginnen!

Schritt 1: Trennen Sie sofort Ihre Partition!

Wenn Ihr Volume noch eingehängt ist und das Passwort eingegeben wurde, hängen Sie dieses sofort aus! Es besteht die Gefahr, dass auf dieses noch versehentlich geschrieben wird.

VeraCrypt-Trennen

Schritt 2: Öffnen Sie das Volume mit bestimmten Einstellungen

VeraCrypt speichert die Kopfdaten des Volumes auf die Partition doppelt: Einmal am Anfang und einmal am Ende dieser. Da vermutlich die Kopfdaten am Anfang beschädigt sind, können Sie die Partition über die Kopfdaten am Ende einhängen:

VeraCrypt Mount

VeraCrypt Optionen

Wenn Sie Operationen an der Partition vornehmen und es besteht nicht die Möglichkeit, dass Sie sie vorher noch einmal komplett spiegeln, dann öffnen Sie sie aus Sicherheitsgründen immer schreibgeschützt! Es besteht die Gefahr, dass versehentlich darauf geschrieben wird. Wenn Sie Ihre Daten möglichst intakt zurück bekommen wollen, vermeiden Sie unbedingt Schreibvorgänge!

Wenn aber auch die Kopfdaten am Ende der Partition beschädigt sind, wären Ihre Daten an dieser Stelle endgültig verloren. Es sei denn, Sie haben die Kopfdaten vorher einmal extern gesichert. In diesem Fall stellen Sie diese unter VeraCrypt folgendermaßen wieder her:

VeraCrypt Operation

VeraCrypt Header Wiederherstellen

VeraCrypt Wiederherstellung

Schritt 3: Stellen Sie Ihre Daten wieder her

Nachdem Sie Ihr Volume erfolgreich einhängen konnten, werden Sie vermutlich die folgende Meldung beim Öffnen erhalten:

VeraCrypt Fehler

Das Volume ist in diesem Fall beschädigt und deswegen gibt es keinen Zugriff. Sie können aber auf Software zur Datenwiederherstellung zurück greifen, z. B. auf GetDataBack von Runtime. Je nachdem, mit welchem Dateisystem Ihre Partition formatiert wurde, wählen Sie entweder die NTFS- oder die FAT-Version aus. In diesem Beispiel setzen wir die Version für NTFS-Festplatten ein:

Wählen SIe "Systematic file system damage" aus. Diese Einstellung wird benutzt bei schnell formatierten Festplatten. Klicken Sie dann auf "Next".

Da die Partition, aus der Sie Ihre Dateien wiederherstellen wollen mit VeraCrypt verschlüsselt ist, müssen Sie über die logische Ebene einen Scan vornehmen lassen. Deswegen wählen Sie unter dem Menüpunkt "Logical drives" das Laufwerk aus, in das Sie unter Schritt 2 Ihr Volume eingehängt haben. Darüber erfolgt der unverschlüsselte Zugriff. Klicken Sie anschließend auf "Next" und warten Sie dann, bis der Scan abgeschlossen ist. Dieser dauert u. U. mehrere Stunden. Im Anschluss daran werden Ihnen alle auf dem Datenträger befindlichen Partitionen angezeigt:

Wählen Sie die Partition aus, auf denen Ihre Daten ursprünglich vorhanden waren. Es kommt vor, dass GetDataBack mehrere Partitionen erkennt, obwohl auf diesem Datenträger nur eine vorhanden war. In diesem Fall wählen Sie einfach die größte, angezeigte Partition aus.

In diesem Fenster können Sie nun alle Ihre Daten wiedererlangen. Beim Kopieren sollten Sie aber darauf achten, dass Sie diese nicht auf den selben Datenträger zurückkopieren. Bis die Wiederherstellung vollständig abgeschlossen ist, sollten Sie deswegen auf einen externen Datenträger ausweichen, der ggf. vorher mit VeraCrypt zu verschlüsseln wäre. Beachten Sie auch, dass abhängig davon, wie viele Schreibvorgänge vorher auf dem Datenträger stattgefunden haben, evtl. nicht alle Ihre Daten wiederhergestellt werden können.

Sonntag, 12 Januar 2020 22:20

Das sichere Back-Up (Teil 4)

geschrieben von

Datenverluste sind allgegenwärtig. In manchen Fällen kann eine Wiederbeschaffung gelingen, in anderen wiederum nicht. Aber soweit muss es gar nicht kommen, denn es gibt verschiedene Mittel zur Vorbeugung. In dieser Artikelserie, bestehend aus vier Teilen, beschäftigen wir uns mit Datensicherung.

 

Teil 1: Datenverlust - Wo lauern überhaupt die Gefahren?

Teil 2: Welche Techniken gibt es zur Datensicherung?

Teil 3: Wie funktioniert die 3-2-1 Back-up-Strategie?

Teil 4: Und wenn es zu spät ist, wie können Daten gerettet werden?

Und wenn es zu spät ist, wie können Daten gerettet werden?

Trotz aller Sicherheitsmaßnahmen und Vorkehrungen sind Ihnen am Ende trotzdem Daten verloren gegangen? Noch wäre nichts zu spät, denn unter bestimmten Umständen lassen sich Ihre Daten alle wiederherstellen. In diesem Artikel beschäftigen wir uns damit, wie das gelingen kann.

Wenn Sie bemerken, dass auf Ihrem Computer Daten verloren gegangen sind, heißt es zunächst einmal: Ruhe bewahren! Überlegen Sie genau, in welchen Verzeichnissen Sie Ihre Dateien ursprünglich gespeichert haben bzw. auf welchem Datenträger sich diese befanden. Kontrollieren Sie an diesen Orten genau und vermeiden Sie dabei unbedingt, dass weitere Schreibvorgänge noch stattfinden! Je weniger Schreibvorgänge auf diesem Datenträger nämlich noch stattfinden, umso höher sind Ihre Chancen, dass Sie an Ihre Daten wieder herankommen.

Erste Hilfe für Jedermann bei Datenverlust

Wenn Sie mit der Wiederherstellung von Daten in keinerlei Hinsicht vertraut sind, sollten sie am Besten Ihren Computer sofort ausschalten, indem Sie dessen Stecker einfach ziehen. Ja, Sie lesen richtig: Ziehen Sie den Stecker! Denn beim herunterfahren könnte das Betriebssystem noch weitere Schreibvorgänge vornehmen, welche potenziell eine Datenrettung weiter erschweren. Konsultieren Sie anschließend einen Informatiker Ihres Vertrauens oder wenden Sie sich an uns. Wir helfen Ihnen in dieser Sache gerne weiter.

Diese Empfehlung gilt übrigens auch bei Kryptotrojanern. Auch wenn die Frist, welche von diesen gesetzt wurde, droht abzulaufen, werden Ihre Daten nicht gelöscht, solange Ihr Computer ausgeschaltet bleibt.

Wiederherstellung versehentlich gelöschter Dateien oder formatierten Festplatten

Idealerweise haben Sie bereits vorgesorgt und haben auf Ihrem Computer schon lange für den Fall der Fälle Datenrettungsprogramme installiert. Wenn dem nicht so sein sollte, so wäre dies nicht unbedingt ein Problem. Sie können sich Datenrettungsprogramme auch aus dem Internet nachträglich noch herunterladen, Sie sollten diese nur nicht auf Ihrem Computer installieren. Es besteht die Gefahr, dass Sie dadurch die zu rettenden Daten überschreiben. Sie sollten daher bei Möglichkeit die portable Variante dieser Datenrettungsprogramme an einem anderen Computer herunterladen und auf einen USB-Stick kopieren. Diesen können Sie dann gefahrlos an Ihren Computer anstecken und die darin befindlichen Programme starten.

Grob werden Datenrettungsprogramme in zwei Arten unterschieden: Solche, die nur einfach gelöschte Dateien wiederherstellen können und solche, die für versehentlich formatierte Festplatten entwickelt wurden. Bei Ersterem hilft bspw. Recuva von Piriform. Bei Letzterem würde wiederum bspw. GetDataBack von Runtime in Frage kommen.

Datenwiederherstellung bei Hardwareschäden

Bei kaputt gegangener Hardware kommt es nur darauf an, ob hiervon ein Datenträger betroffen ist. Wenn an Ihrem Laptop bspw. nur das Display kaputt gegangen ist, so bedeutet das nicht, dass Ihre Daten alle verloren sind. Die Festplatte Ihres Laptops kann nämlich ausgebaut und an einen anderen Computer angeschlossen werden. Hierüber könnten Sie dann wieder an Ihre Daten herankommen.

Ist aber ein Datenträger ohne Zweifel kaputt, so gibt es nur einen Weg, um an alle Daten wieder heranzukommen, nämlich die Übergabe an ein sog. Datenrettungslabor. Dieses gilt oft als die letzte Hoffnung für verloren gegangene Daten. Selbst Datenträger, welche durch Brand- oder Wasserschäden zerstört würden, können in diesen Laboren oft noch ausgelesen werden. Abhängig davon, um welches Medium es sich handelt, wie groß dieses ist sowie, wie schlimm die Schäden daran sind, können die Preise für eine Datenrettung mehrere hundert bis mehrere tausend Euro betragen. Wenn eine Datenrettung aber selbst unter laborbedingungen nicht mehr möglich ist, wären somit Ihre Daten endgültig verloren.

Auch ein intakter Datenträger kann für eine Datenrettung in ein Labor abgegeben werden. Aus Erfahrung können wir jedoch sagen, dass dieses keine besseren Ergebnisse bringt, als wenn Sie mit entsprechender Software Ihre Daten zu Hause selber retten.

Dienstag, 31 Dezember 2019 11:46

Das sichere Back-Up (Teil 3)

geschrieben von

Datenverluste sind allgegenwärtig. In manchen Fällen kann eine Wiederbeschaffung gelingen, in anderen wiederum nicht. Aber soweit muss es gar nicht kommen, denn es gibt verschiedene Mittel zur Vorbeugung. In dieser Artikelserie, bestehend aus vier Teilen, beschäftigen wir uns mit Datensicherung.

 

Teil 1: Datenverlust - Wo lauern überhaupt die Gefahren?

Teil 2: Welche Techniken gibt es zur Datensicherung?

Teil 3: Wie funktioniert die 3-2-1 Back-up-Strategie?

Teil 4: Und wenn es zu spät ist, wie können Daten gerettet werden?

 

Wie funktioniert die 3-2-1 Back-up-Strategie?

Sich vernünftig aufzustellen und entsprechend zu organisieren ist das A und O jeder Datensicherung. Doch nicht wenige sind am Ende gescheitert, weil ihre Strategien im Katastrophenfall nicht aufgegangen sind. In diesem Teil unserer Artikelserie betrachten wir daher die sog. 3-2-1 Back-up-Strategie, welche am meisten genutzt wird und daher erprobt ist.

Nun gut, wir kennen nun potenzielle Gefahren für Datenverluste und einige Methoden, wie Daten vernünftig abgesichert werden können. Doch diese Informationen alleine genügen nicht, um einer Katastrophe in ausreichender Weise gewappnet zu sein. Es bedarf auch einer guten Strategie sowie einer Vorrichtung, damit Daten am Ende auch wirklich überleben.

Im Ersten Schritt eine Analyse

Bevor überhaupt ein Back-up so wirklich durchgeführt werden kann, müssen zunächst zwei Dinge geklärt werden: Zum einen, welche Daten für eine Sicherung überhaupt infrage kommen und zum anderen, vor welchen Gefahren diese geschützt werden sollen. Von diesen beiden Faktoren abhängig, können die Kosten sowie der zeitliche Aufwand unterschiedlich ausfallen.

Bei Ersterem sollten regelmäßig zu sichernde Daten bei Möglichkeit auf dem Computer an solchen Orten gespeichert werden, die Ihnen als Anwender einen möglichst einfachen Zugang ermöglichen. Sie sollten es meiden, bei jedem Sicherungsvorgang zunächst alle Daten zusammensuchen zu müssen, denn Sie würden dadurch unnötig viel Zeit verlieren. Speichern Sie Ihre wichtigen Daten deshalb von Anfang an an einem Ort, den Sie mit quasi nur einem Mausklick direkt sichern können.

Wenn es um die potenziellen Gefahren geht und Sie Datenverluste durch Hardwareschäden bspw. vorbeugen möchten, sollten Sie darüber nachdenken, Ihren Computer mit einem RAID-System auszustatten. Gegen versehentliches Löschen, Datenverlust durch Softwarefehler oder durch einen Virenbefall hilft nur eine regelmäßige Datensicherung auf einem externen Datenträger. Müssen Ihre Daten aber am Ende auch bspw. einen Wohnungsbrand überleben, sollten Sie Ihre Daten zusätzlich noch in der Cloud speichern.

Drei verschiedene Sicherungskopien

Rein statistisch betrachtet beträgt die Wahrscheinlichkeit im Schnitt 1 zu 100, dass ein Datenträger ausfällt. Auf diese Erfahrung setzt die 3-2-1 Back-up-Strategie an. Ein Anwender soll gleich drei verschiedene Sicherungskopien seiner Daten anlegen, um die Wahrscheinlichkeit eines Totalverlustes enorm zu minimieren. Hier die Rechnung dazu:

1/100 * 1/100 * 1/100 = 1/1.000.000

Bei drei Sicherungskopien ist die Wahrscheinlichkeit 1 zu 1.000.000, dass alle drei Datenträger gleichzeitig ausfallen. Erstellen Sie daher nicht nur eine, sondern gleich mind. drei Sicherungskopien Ihrer Daten, um einem Totalverlust zu entgehen.

Zwei verschiedene Medien

Die Ausfallwahrscheinlichkeit eines Datenträgers kann variieren, je nachdem, aus welchem Material dieser besteht, welche Speichertechnologie dieser verwendet und wie frequentiert dieser genutzt wird. In der 3-2-1 Back-up-Strategie wird deswegen nicht nur zu drei Sicherungskopien angeraten, sondern dass diese bei Möglichkeit auch auf mindestens zwei verschiedenen Medien angelegt werden.

Wenn Ihre Daten bspw. hauptsächlich auf Magnet-Festplatten gespeichert werden, sollten Sie darüber nachdenken, mind. eine Sicherungskopie bspw. auf einer SSD anzulegen. Wenn es sich um geringe Datenmengen handelt, würden sich auch USB-Sticks oder Speicherkarten anbieten. Aber auch optische Datenträger, wie CDs, DVDs oder BDs würden sich eignen.

Eine zusätzliche Sicherung in der Cloud

Die Beste Strategie nützt nichts, wenn Sie zwar alle Ihre Daten regelmäßig auf externe Datenträger kopieren, diese aber nahezu durchgehend in Ihrer Wohnung aufbewahren. Denn theoretisch besteht auch die Möglichkeit eines Totalverlustes durch einen Wohnungsbrand oder einen Wasserschaden. Die 3-2-1 Back-up-Strategie sieht daher die Aufbewahrung mind. einer Kopie Ihrer Daten außerhalb der gewohnten Umgebung vor. Machen Sie sich daher vertraut mit sog. online Back-up bzw. mit Cloud-Diensten, die hierfür Speicher zu Verfügung stellen. Sie sollten dabei Ihre Daten vernünftig verschlüsseln, sodass diese von Unbefugten ohne Weiteres nicht gelesen werden können.

Dienstag, 24 Dezember 2019 12:47

Das sichere Back-Up (Teil 2)

geschrieben von

Datenverluste sind allgegenwärtig. In manchen Fällen kann eine Wiederbeschaffung gelingen, in anderen wiederum nicht. Aber soweit muss es gar nicht kommen, denn es gibt verschiedene Mittel zur Vorbeugung. In dieser Artikelserie, bestehend aus vier Teilen, beschäftigen wir uns mit Datensicherung.

 

Teil 1: Datenverlust - Wo lauern überhaupt die Gefahren?

Teil 2: Welche Techniken gibt es zur Datensicherung?

Teil 3: Wie funktioniert die 3-2-1 Back-up-Strategie?

Teil 4: Und wenn es zu spät ist, wie können Daten gerettet werden?

 

Welche Techniken gibt es zur Datensicherung?

In der heutigen Zeit stehen zum Glück verschiedene Mittel zur Auswahl, um einzeln oder auch kombiniert relativ sicher gegen Datenverlust vorbeugen zu können. In diesem Teil unserer Artikelserie sehen wir uns einzelne Methoden an und beschäftigen uns mit ihrem Nutzen bzw. ihren Vor- und Nachteilen.

Ob Daten bestimmte Katastrophen am Ende überleben können, hängt davon ab, mit welchen Mitteln diese vorher gesichert wurden. Dabei kommt es nicht nur auf die Anwendung bestimmter Mittel an, sondern auch darauf, ob wir Anwender bereit sind, gewissen Aufwand dafür zu betreiben. Im Folgenden werden mehrere Methoden vorgestellt, mit diesen eine Sicherung von Daten gelingen kann:

Back-up ganz klassisch auf einem externen Datenträger

Die beliebteste Variante, um Daten zu sichern, ist die Sicherungskopie auf einem externen Datenträger. Dieser könnte bspw. ein USB-Stick sein, oder eine externe Festplatte. Aber auch optische Datenträger, wie CDs, DVDs, oder BDs bieten sich für regelmäßige Datensicherungen an.

Diese Methode bietet gleich mehrere Vorteile: Alle Daten sind gesichert, auch wenn Anwender auf ihren Computern versehentlich Daten löschen, oder durch fehlerhafte Software Daten verlieren. Der Computer könnte sogar vollständig kaputt gehen, ohne dass dabei wirklich Daten verloren gehen würden. Sollte der Computer mal mit Viren befallen werden, würden alle Daten sicher bleiben, solange der externe Datenträger nicht an diesen angeschlossen wird. Wird der externe Datenträger auch außerhalb des eignen Hauses aufbewahrt, können alle Daten darauf selbst Wasserschäden oder Brände überleben.

Der Nachteil dieser Methode ist aber wiederum, dass Anwender regelmäßigen Aufwand betreiben müssen, um immer eine aktuelle Sicherungskopie aller Daten zu haben. Dies könnte auf Dauer jedoch ganz lästig werden. Abhängig davon, in welchem zeitlichen Abstand eine Datensicherung regelmäßig durchgeführt wird, kann trotzdem ein gewisses Risiko bestehen, dass neue und noch nicht gesicherte Daten verloren gehen. Wenn die zu sichernde Datenmenge groß ist, würde der zeitliche Aufwand pro Sicherungsvorgang dementsprechend hoch ausfallen.

RAID als Hilfsmittel für Back-up

RAID-Systeme können ebenfalls in gewisser Weise gegen Datenverlust vorbeugen. Durch die Kombination mehrerer physischer Datenträger zu einer logischen wird dabei eine gewisse Redundanz erzeugt, die bis zu einem bestimmten Grad Sicherheit vor einem Ausfall bietet. Hierbei eignen sich am meisten die RAID-Level 1, 5 und 6 bzw. die Kombinationen davon sowie RAID-Level 10. RAID-Level 0 bietet keine Datensicherheit.

Der Vorteil dieses Systems ist, dass mindestens ein beliebiger Datenträger kaputt gehen kann, ohne dass dabei alle Daten verloren gehen. Das RAID-System arbeitet dabei voll automatisch und Anwender müssen für die Erzeugung der Redundanz keinen zusätzlichen Aufwand betreiben.

Wovor RAID-Systeme jedoch nicht schützen können, sind immer noch die Datenverluste durch menschliches Versagen oder durch Software-Fehler. Auch vor einem Virenbefall, vor Wasser- oder Brandschäden schützen derartige Systeme nicht. Je nachdem, wie ein RAID-System konstruiert wird, können hierbei hohe Kosten entstehen und es stünde nicht der gesamte Datenspeicher zu Verfügung, der eingekauft wurde. Wenn in einem RAID zu viele Datenträger ausfallen, sind alle Daten verloren, auch auf den Datenträgern, die noch intakt sind.

Back-up in der Cloud

In unserer heutigen Zeit, wo schnelle Breitbandzugänge vorhanden sind, bieten natürlich auch Clouddienste die Möglichkeit an, Daten zu sichern. Hierbei wären Microsoft's OneDrive oder auch Google's Google Drive als Beispiele zu erwähnen.

Ein großer Vorteil dieser Clouddienste ist es, dass Daten vor nahezu jeder erdenklichen Gefahr gesichert sind. Egal, ob ein Anwender auf seinem Computer eine Datei einfach nur versehentlich gelöscht hat, oder ob sein ganzes Haus am Ende niedergebrannt ist, auf seine Daten in der Cloud kann er nach wie vor zugreifen. Solange ein Internetzugang vorhanden ist, kann von jedem Ort auf der Welt aus auf diese zugegriffen werden.

Ein wiederum großer Nachteil dieser Clouddienste ist es aber, dass der Datenschutz nicht immer gewährleistet ist. Anwender können nie sichergehen, dass Ihre Daten vor unberechtigten Zugriffen Dritter geschützt bleiben. Insbesondere die Cloudanbieter selbst könnten die Privatsphäre ihrer Nutzer verletzen. In den Fällen, wo große Datenmengen gesichert werden müssten, würden für zusätzlichen Speicher regelmäßige Kosten beim Cloudanbieter anfallen und ein Upload wurde zeitlich entsprechend viel länger dauern.

Sonntag, 22 Dezember 2019 13:13

Das sichere Back-Up (Teil 1)

geschrieben von

Datenverluste sind allgegenwärtig. In manchen Fällen kann eine Wiederbeschaffung gelingen, in anderen wiederum nicht. Aber soweit muss es gar nicht kommen, denn es gibt verschiedene Mittel zur Vorbeugung. In dieser Artikelserie, bestehend aus vier Teilen, beschäftigen wir uns mit Datensicherung.

 

Teil 1: Datenverlust - Wo lauern überhaupt die Gefahren?

Teil 2: Welche Techniken gibt es zur Datensicherung?

Teil 3: Wie funktioniert die 3-2-1 Back-up-Strategie?

Teil 4: Und wenn es zu spät ist, wie können Daten gerettet werden?

 

Datenverlust - Wo lauern überhaupt die Gefahren?

Datenverluste können manchmal nur bedauerlich, manchmal aber auch existenzbedrohend sein. Man denke als Beispiel an einen freiberuflich tätigen Grafiker, der seine Arbeit ausschließlich nur auf einem Computer verrichtet. Denkt dieser aber nie an regelmäßige Sicherungskopien, könnte ihn eines Tages eine Katastrophe wachrütteln. Wenn alle Daten nämlich erst mal weg sind und dieser seine Arbeit nicht mehr machen kann, könnten seine Auftraggeber als Folge alle Aufträge wieder zurückziehen. Möglicherweise würden sie sogar eine Vertragsstrafe einfordern, weil Termine nicht rechtzeitig eingehalten wurden. Und das ist nur ein denkbares Szenario, das in Folge eines Datenverlustes eintreten kann.

Wie aber kann Datenverlust überhaupt eintreten? Sehen wir uns nachfolgend mal einige Möglichkeiten an:

Datenverlust durch menschliches Versagen

Klassischerweise gehen Daten dadurch verloren. dass eine Datei versehentlich gelöscht, oder eine Festplatte versehentlich formatiert wird. Aber auch andere Formen von Datenverlust können eintreten, z. B. dadurch, dass unachtsamen Nutzern ihre Festplatten auf den Boden fallen, oder sie ein Getränk über ihre Laptops verschütten. Smartphones, Tablets und USB-Sticks können nicht nur Flüssigkeiten ausgesetzt werden, sie können auch einfach nur unauffindbar verloren gehen.

Datenverlust durch Softwarefehler

Software und insbesondere auch Betriebssysteme können ebenfalls eine Ursache für Datenverlust darstellen. Man denke bspw. an das Windows 10 Upgrade 1809. Nach einer Aktualisierung waren die Inhalte der Ordner "Dokumente" sowie "Bilder" unter "Eigene Dateien" verschwunden. Als Folge stoppte Microsoft die Auslieferung dieses Upgrades temporär, um weitere Schäden zu vermeiden.

Ein weiteres Beispiel ist die fehlerhafte Firmware einer Netzwerkspeichereinheit von QNAP, welche im August 2017 ausgebessert wurde. Entgegen der Regel sind bei einem RAID 5 Datenverluste eingetreten, obwohl nur eine Festplatte ausgefallen war.

Datenverlust durch Hardwaredefekte

Wie alle physischen Gegenstände in unserem Leben, unterliegen selbstverständlich auch unsere Computer bzw. unsere Datenträger einem gewissen Verschleiß. Dieser kann ebenfalls am Ende dazu führen, dass Daten verloren gehen. Bspw. dadurch, indem eine Festplatte einfach kaputt geht. Auch unsere Flashspeichermedien halten nicht unbegrenzt. Diese sind aus einem Material hergestellt, welche eine zwar sehr hohe, aber auch nur begrenzte Anzahl an Lese- bzw. Schreibvorgänge zulässt.

Eine weitere Gefahrenquelle ist potenziell auch die Stromzufuhr, denn nicht wenig Hardware geht dadurch kaputt, weil sie überspannt wird. Auch ab Werk können Hardware wegen Produktions- oder Konstruktionsfehler Defekte haben.

Datenverlust durch Virenbefall

Viren und Trojaner waren gerade in der jüngeren Vergangenheit viel Ursache für Datenverluste. Im März 2016 machte bspw. KeRanger die Runde, im Mai 2017 dann WannaCry. Bei diesen Exemplaren handelt es sich um sog. "Kryptotrojaner", die sämtliche Dateien verschlüsseln, nachdem sie auf einen Computer gelangt sind. Im Anschluss daran erpressen sie vom Anwender Lösegeld und drohen mit endgültiger Löschung aller Daten, sollte dieser nicht bezahlen.

Datenverlust durch Umwelteinflüsse

Einflüsse durch die Umwelt können ebenfalls am Ende zu Datenverlust führen. Dabei muss ein Computer noch nicht einmal eingeschaltet sein. Stellen Sie sich vor, durch einen Rohrbruch erleiden Sie ausgerechnet in dem Raum einen Wasserschaden, in dem Ihre Arbeitsgeräte liegen. Oder in Ihrem Raum fängt irgendein Gerät Feuer wegen eines Kurzschlusses. Brände, Wasserschäden, Blitzeinschläge, zu hohe oder zu niedrige Temperaturen oder auch Erdbeben in manchen Regionen können zu verheerenden Datenverlusten führen.

Montag, 16 Dezember 2019 18:16

Pharming - Das modernere Phishing

geschrieben von

Tag täglich landen Menschen auf gefälschten Webseiten und werden entweder Opfer von Identitätsdiebstahl, oder sie erleiden einen finanziellen Schaden. Dies erreichen Kriminelle nicht nur ganz klassisch mittels Phishing über Spammails, sondern auch mittels sog. Pharming. In diesem Artikel beleuchten wir, wie sie dabei vorgehen und wie ein sicherer Schutz davor aussehen kann.

Sie waren immer vorsichtig und haben nie auf Links in verdächtigen Mails geklickt? Das Bankkonto wurde aber trotzdem leer geräumt? Oder jemand anderes kontrolliert nun Ihr Konto bei Facebook? Dann sind sie möglicherweise Opfer eines sog. Pharming-Angriffs geworden.

Pharming, was ist das eigentlich?

Genau wie beim Phishing, sollen auch beim Pharming ahnungslose Benutzer auf eine präparierte Webseite angelockt werden, mit dem Zweck, um sie dann zu betrügen. Dies könnte z. B. die Webseite einer Bank sein. Wer dort aber seine Zugangsdaten für das Online-Banking eingibt, wird hinterher feststellen, dass Kriminelle sich am eigenen Bankkonto bedient haben.

Es gibt nur einen Unterschied zwischen Pharming und Phishing: Um potenzielle Opfer anzulocken, müssen beim Pharming nicht massenhaft gefälschte E-Mails verschickt werden. Stattdessen werden sog. DNS-Abfragen manipuliert, damit potenzielle Opfer so unbemerkt auf einer präparierten Webseite landen. Diese Art der Manipulation ist nämlich viel unauffälliger als das Phishing. Eine gefälschte und massenhaft verschickte Mail würde zwangsläufig auch bei solchen Empfängern landen, die gar kein Konto bei der jeweiligen Bank besitzen. Diese würden den Betrug dann sofort merken und evtl. auch Schritte dagegen einleiten.

Wie kann eine Manipulation von DNS-Abfragen gelingen?

DNS-Abfragen können mit verschiedenen Mitteln manipuliert werden. Ganz klassisch könnte bspw. ein Trojaner dafür eingesetzt werden. Dieser muss nur auf dem Computer eines potenziellen Opfers einen Eintrag in der sog. "Hosts"-Datei erstellen. Darin befindet sich die Domain seiner Bank sowie der Verweis auf die IP-Adresse eines Servers, auf dem sich die präparierte und falsche Webseite befindet. Gibt dieser Benutzer in die Leiste seines Browsers nun die Adresse seiner Bank ein, würde er automatisch auf der gefälschten Webseite landen.

Sich davor schützen können sich Benutzer nur, indem sie auf das grüne Schloss neben der Adressleiste in ihrem Browser achten. Angreifer können nämlich keine Sicherheitszertifikate für Domains ausstellen, welche ihnen nicht gehören. Fehlt das grüne Schloss oder meldet der Browser eine unsichere Verbindung, bedeutet das: Finger Weg! Diese Webseite ist potenziell gefährlich!

Eine derartige Attacke kann aber auch auf einer ganz hohen Ebene stattfinden, z. B. auf einem viel frequentierten DNS-Server. Dieser speichert die IP-Adressen bereits abgefragter Domains in einem Cache, um Abfragen bei übergeordneten Servern nicht ständig wiederholen zu müssen. Wird der Cache nun aber manipuliert, können damit Scharen von Benutzern auf eine falsche Webseite umgeleitet und ausgenommen werden. Auch dies könnte mittels eines Trojaners bewerkstelligt werden oder durch die Ausnutzung einer Sicherheitslücke in der DNS-Server-Software. In diesem Zusammenhang spricht man auch von einem sog. Cache Poisoning.

Einer Manipulation des Caches können am effektivsten nur Inhaber von Domains begegnen, indem sie ihre sog. DNS-Zonendaten mit einer kryptografischen Signatur versehen. Bei jeder Abfrage wird diese durch den Empfänger dann überprüft und sollte diese abweichen, liegt potenziell eine Manipulation vor. Domain-Inhaber sollten sich daher bei Möglichkeit mit DNSSEC vertraut machen. Auch wir beraten Sie in dieser Angelegenheit gern.

Freitag, 13 Dezember 2019 17:30

Das Domain Name System und sein Nutzen

geschrieben von

Das Domain Name System - oder kurz DNS - ist eines der wichtigsten Komponenten des Internets. Es löst sog. Domainnamen in IP-Adressen auf und hat darüber hinaus auch einige Sicherheitsfunktionen. Warum aber wird dieses System überhaupt gebraucht? Und wieso wird es in Zukunft sogar eine noch größere Bedeutung haben? Darüber handelt unser heutiger Artikel.

Hinter allen Domainnamen, wie bspw. "google.de", verbergen sich IP-Adressen. Bevor ein Client aber eine Verbindung aufbauen kann, muss dieser vorher eine Abfrage tätigen. Erst dann kann ein Dienst im Internet erreicht werden.

Warum existieren Domainnamen überhaupt?

Webseiten bspw. könnten selbstverständlich auch über ihre IP-Adresse abgerufen werden. Dies würde den Alltag aber nicht unbedingt erleichtern, denn Menschen können sich diese i. d. R. nicht merken. Domainnamen wurden deswegen eingeführt, damit zum einen Computer immer noch über IP-Adressen miteinander kommunizieren können und zum anderen, damit Dienste im Internet jederzeit ein Wechsel ihrer IP-Adresse vornehmen können, ohne dass sie diese jedes Mal neu propagieren müssen. Solange ein Domainname existiert und nicht abgeändert wird, ist eine Erreichbarkeit sozusagen einfach und garantiert.

Wie werden Domainnamen in IP-Adressen aufgelöst?

Domainnamen werden meistens von DNS-Servern in IP-Adressen aufgelöst. Sie sind, wenn man so will, die Telefonbücher des Internets. Zuerst aber schaut das Betriebssystem, ob zu einer bestimmten Domain ein Eintrag in der sog. "Hosts"-Datei besteht. Erst dann tätigt es eine Abfrage bei einem DNS-Server. Weis dieser die IP-Adresse aber auch nicht, wendet sich dieser dann an einen sog. "Root-DNS-Server", quasi der große Bruder des DNS-Servers. Wenn der Domainname auch wirklich existiert, reicht dieser dann die IP-Adresse an das Betriebssystem durch.

Provider, wie die Telekom oder Vodafone, stellen für die Anschlüsse ihrer Kunden automatisch eigene DNS-Server bereit. Diese werden als Standardkonfiguration im Router eingetragen und dienen dann für Abfragen als Anlaufstelle. Selbstverständlich können auch alternative DNS-Server verwendet werden, denn es besteht keine Pflicht, die Provider eigenen zu benutzen.

Sind IP-Adressen die einzigen Daten, die zu einer Domain hinterlegt werden können?

IP-Adressen sind natürlich nicht die einzigen Daten, die zu einer Domain hinterlegt werden können. DNS erledigt inzwischen viel mehr Aufgaben, als nur Domainnamen in IP-Adressen aufzulösen. So kann zu einer Domain z. B. eine Aliasbezeichnung eingetragen werden, damit Besucher, die bspw. "post-bank.de" in ihren Browser eingeben, automatisch zur richtigen Domain, nämlich "postbank.de", weitergeleitet werden können. Oder es können Mailserver eingetragen werden, damit ein Empfang von Mails über die eigene Domain möglich wird.

In wieweit trägt DNS für ein sicheres Internet bei?

Bestimmte Sicherheitsmerkmale, wie z. B. DNSSEC, stellen sicher, dass tatsächlich auch die Webseite von Facebook im Browser erscheint, wenn "facebook.com" in die Adressleiste eingegeben wird. Wenn dies nicht durch technische Mittel sichergestellt wird, können Besucher durch das sog. "Cache Poisoning" auf eine gefälschte Version des sozialen Netzwerks umgeleitet werden. Geben sie nun dort ihre Log-in-Daten ein, würden diese wahrscheinlich auf direktem Weg in die Hände von Kriminellen Hackern gelangen.

Warum wird DNS zukünftig sogar eine noch größere Bedeutung haben als jetzt?

Langfristig sollen alle IPv4-Adressen durch IPv6-Adressen ersetzt werden. Diese haben eine Länge von 128 Bit und werden in hexadezimal dargestellt. Dadurch werden sie für den Menschen sogar noch schwieriger sein zu merken. IPv4-Adressen haben hingegen nur eine Länge von 32 Bit und werden in dezimal dargestellt. Hier ein Beispiel:

IPv4: 127.234.218.199

IPv6: 2001:0DB8:85a3:08d3:1319:8a2e:0370:7347

Sonntag, 08 Dezember 2019 12:11

Technische Aspekte der Internetzensur

geschrieben von

Viele Länder weltweit zensieren das Internet. Die Motive dabei sind ganz unterschiedlich: Sie können von politischer oder moralischer Natur sein, nicht selten geht es aber auch um den Schutz Minderjähriger oder um die eigene Religion. Doch an welchen Mitteln können sie sich dabei potenziell bedienen? Und wie zuverlässig arbeiten diese? Darüber handelt unser heutiger Artikel.

Benutzer davon abzuhalten, Zugang zu bestimmten Inhalten im Internet zu bekommen, kann manchmal keine einfache Aufgabe sein. Der Erfolg ist aber abhängig davon, welche Technik verwendet wird und wie versiert ein Benutzer ist, diese zu umgehen.

Zensur mittels DNS-Sperren

Die einfachste und kostengünstigste Methode, um Inhalte im Internet zu zensieren, ist die sog. DNS-Sperre. Alle Internet Service Provider müssen für ihre Infrastruktur technisch bedingt sog. DNS-Server betreiben. Diese können mit schwarzen Listen ausgestattet werden, in denen die Domains aller Webseiten eingetragen werden, die nicht erwünscht sind. Wenn Benutzer in die Adressleiste ihres Browsers nun eines dieser Domains eingeben, bekommen sie entweder einen Hinweis, dass der Zugang blockiert wurde, oder die Webseite ist einfach nicht erreichbar.

Diese Methode wird jedoch als sehr schwach angesehen. Benutzer können sie dadurch umgehen, indem sie in ihre Systeme alternative DNS-Server eintragen. Bei der Auswahl dieser muss nur darauf geachtet werden, dass diese von keiner Zensur betroffen sind. Gelegentlich bedienen sich manche Länder deswegen noch zusätzlich an der Sperrung von IP-Adressen dieser unerwünschten Domains, um den Zugang zusätzlich noch zu erschweren.

Zensur mittels transparentem Proxy

Eine weitere Möglichkeit, um Inhalte im Internet zu zensieren, ist ein sog. transparenter Proxy. Proxys stellen in Kommunikationsnetzwerken eine Art Vermittlung dar. Sie empfangen von anderen Kommunikationsteilnehmern Anfragen, leiten diese weiter an den Empfänger und fungieren dabei als Absender. Die Anfragen müssen derweil nicht so ohne Weiteres einfach übertragen werden, denn sie können auch abgeändert oder sogar ganz abgelehnt werden.

Abhängig davon, um welches Kommunikationsprotokoll es geht, arbeiten Proxys ganz unterschiedlich und müssen deswegen separat betrieben werden. Zum zensieren werden daher meistens sog. HTTP-Proxys eingesetzt. Diese werden von Providern unbemerkt (daher auch die Bezeichnung "transparent") zwischen den Anschlüssen ihrer Kunden und dem Internet geschaltet.

Anders als bei den DNS-Sperren muss dabei nicht die gesamte Domain gesperrt werden, es können auch nur einzelne URLs einer Webseite betroffen sein. Der Nachteil ist aber wiederum, dass diese Methode dadurch umgangen werden kann, indem die Kommunikation auf einen anderen Port umgelegt wird.

Zensur mittels Deep Packet Inspection

Der absolute Meister in Sachen Zensur ist die sog. Deep Packet Inspection. Sie werden von Providern ähnlich wie ein transparenter Proxy zwischen den Anschlüssen ihrer Kunden und dem Internet geschaltet. Unabhängig davon, über welchen Port kommuniziert wird, analysiert eine Firewall die Inhalte aller passierenden Datenpakete und gibt sie entweder frei oder blockiert sie. Die Kriterien können dabei sehr vielfältig sein, auf Grundlage derer die Firewall eine Entscheidung trifft. Dies können bspw. bestimmte verbotene Stichworte sein wie "Sex" oder "Porno", oder URLs mit unerwünschtem Inhalt, IP-Adressen, Domains und sogar bestimmte Kommunikationsprotokolle wie bspw. BitTorrent, VPN oder TOR. Es bestehen sozusagen keine Grenzen dessen, was verboten werden kann.

Es gibt nur einen wirksamen Schutz gegen Deep Packet Inspection, nämlich die sog. Protokoll-Obfuskation. Hierbei wird die eigentlich stattfindende Kommunikation in gewisser Weise verschleiert bzw. an der Firewall vorbei geschmuggelt. Die Inhalte, die dabei übertragen werden, sind zusätzlich noch verschlüsselt. Ob und in wieweit ein Benutzer mit dieser Methode aber durchkommt, hängt von der Intelligenz der verwendeten Technik des Providers ab.

Donnerstag, 05 Dezember 2019 20:30

MBR und GPT - Unterschiede und Nutzen

geschrieben von

Dateien müssen auf unseren Datenträgern in irgendeiner Weise organisiert werden. Ohne eine verlässliche Speicherstruktur wäre eine Arbeit undenkbar. Was muss der Computer aber im Hintergrund dafür alles unternehmen? Und welche Rolle spielen dabei MBR und GPT? Das sehen wir uns in diesem Artikel mal genauer an.

Seitdem Computer Daten verarbeiten und speichern, werden Dateisysteme gebraucht. Eine funktionierende Organisation ist dabei unerlässlich, vor allem wenn es um schnelle Zugriffe und um Integrität aller Daten geht. Genau hier kommen MBR und GPT ins Spiel.

MBR - was ist das eigentlich?

MBR - oder der Master Boot Record - wurde während den 1980er Jahren für Festplatten entwickelt. Er dient zum einen als Startprogramm für BIOS basierte Computersysteme und als Organisator aller Partitionen auf einer Festplatte. Er befindet sich immer im ersten Sektor und ist nur 512 Byte groß.

Wie genau funktioniert MBR?

Wenn Computer hochgefahren werden, geht das BIOS irgendwann dazu über, den MBR der Startfestplatte auszulesen. In diesem findet es alle notwendigen Informationen, um das Betriebssystem zu finden und zu starten. Gleichzeitig stellt der MBR eine Tabelle bereit, indem alle Partitionen einer Festplatte eingetragen sind. Das Betriebssystem soll dadurch auf einen Blick sofort erkennen, wie viele Partitionen existieren und wo diese sich auf der Festplatte befinden.

Partitionen wiederum haben Dateisysteme, die wiederum Dateien organisieren. Ein Dateisystem könnte unter Windows z. B. NTFS oder exFAT sein. Sie enthalten ebenfalls Tabellen, in denen alle Dateien u. a. mit Namen und Speicherort eingetragen sind.

Im Prinzip ist die Organisation unserer Dateien also verschachtelt: Der MBR organisiert alle Partitionen auf einer Festplatte, die Partitionen haben Dateisysteme, die wiederum alle Dateien organisieren.

Und wofür wird GPT gebraucht?

Im Laufe der Jahre kamen immer neuere und modernere Speichermedien auf den Markt und die Kapazitäten wuchsen rasant an. MBR ist zweifelsohne eine sehr wichtige Komponente zur Organisation von Partitionen, er genügt jedoch den Anforderungen von heute nicht mehr. Daher beschloss die Industrie die Entwicklung von GPT und definierte die Organisation von Partitionen auf Datenträgern neu.

GPT - oder die GUID Partition Table - tut im Prinzip nichts anderes als MBR. Die Entwickler gingen dabei mit der Zeit und richteten sie nicht auf BIOS basierte, sondern auf UEFI basierte Computersysteme aus. Während bei MBR max. vier Partitionen in die Tabelle eingetragen werden können, können mittels GPT im Prinzip so viele Partitionen in die Tabelle eingetragen werden, wie der Datenträger an Speicher zu Verfügung stellt. Eine Partition ist dabei wie bei MBR nicht auf die Größe von max. 2 TiB beschränkt, sondern kann bis zu 18 EiB groß sein. Neu bei GPT sind auch sog. Back-up-Sektoren, in denen Informationen redundant abgelegt werden und die Datenverlust geringfügig vorbeugen. Jede Partition und der Datenträger selbst ist mit einer sog. GUID versehen, anhand der eine eindeutige Identifizierung erfolgen kann.

Aus Kompatibilitätsgründen hält GPT im ersten Sektor des Datenträgers aber immer noch den MBR. Diese enthält lediglich die Information, dass der gesamte Datenträger belegt ist und hat ansonsten keinerlei Funktion.

Wird MBR heute also nicht mehr verwendet? Und kann ich GPT auch auf älteren Festplatten verwenden?

Wir treffen vereinzelt immer noch auf Computersysteme an, dessen Festplatten mit MBR initialisiert sind. Dies betrifft jedoch fast ausschließlich Rechner der älteren Generationen bzw. mit älteren Betriebssystemen. Auch ältere Datenträger können mit GPT initialisiert werden. In dieser Angelegenheit beraten wir Sie gern.

Unsere Rufnummer

 

IT-Service Support

0176 75 19 18 18

Kostenfreie Erstberatung

Das sagen unsere Kunden

Bild ist nicht verfügbar

++ Bester Computer-Service ++ Alle meine Probleme wurden hervorragend gelöst, ich bin begeistert und komme gerne wieder

++ Bester Computer-Service ++ Alle meine Probleme wurden hervorragend gelöst, ich bin begeistert und komme gerne wieder " Ayse

Bild ist nicht verfügbar

++ Bester Computer-Service ++ Alle meine Probleme wurden hervorragend gelöst, ich bin begeistert und komme gerne wieder

Problem schnell und zuverlässig gelöst. Sehr freundlicher und lobenswerter Service " Peter

Bild ist nicht verfügbar

++ Bester Computer-Service ++ Alle meine Probleme wurden hervorragend gelöst, ich bin begeistert und komme gerne wieder

Auch für Senioren geeignet. Super verständlich und einfach das Problem erklärt. Klare Empfehlung! " Gertrud

previous arrow
next arrow
Slider

Im Archiv durchstöbern

plg_search_virenlexikon
Suche - News Artikel
Suche - Kategorien
Suche - Kontakte
Suche - Seiteninhalt
Suche - Newsfeeds
Suche - Weblinks
Suche - Schlagwörter