24h Service 0176 75 19 18 18

News

In unseren News finden Sie Fachartikel über allgemeine Themen Rund um IT

Freitag, 16 August 2019 22:40

Was ist eine Firewall und wie funktioniert sie?

geschrieben von

Jeder kennt sie, jeder hat sie und die wenigsten wissen, was genau eine Firewall überhaupt macht. Denn häufig wird die Firewall mit anderen Sicherheitssoftware verwechselt oder gleichgesetzt. Wir klären auf, was eine Firewall ist, für was sie zuständig ist und welche Typen es gibt.

Ganz allgemein: Was ist eine Firewall?

Firewalls sind Software. Sie stellen ein Sicherungssystem dar, das dafür sorgt, dass ein Rechnernetzwerk oder einzelne Computer vor unerwünschtem Netzwerkzugriffen geschützt wird. Dabei ist die Firewall meist ein Teil eines bestimmten Sicherheitskonzepts.

Eine Firewall dient dazu, den Netzwerkzugriff aus dem Netzwerk auf den PC beziehungsweise vom PC auf das Netzwerk zu limitieren. Sie überprüft und überwacht die Absender und Ziele sowie die verwendeten Dienste. Dabei verwendet die Software eine Reihe festgelegter Regeln, um zu entscheiden, welche Datenpakete durchgelassen oder aufgehalten werden.

Entgegen landläufiger Meinung dient eine Firewall nicht dazu, Angriffe (beispielsweise aus dem Internet oder durch Hacker) zu erkennen und Gegenmaßnahmen einzuleiten. Sie ist für die Regelung der Netzwerkkommunikation zuständig und kann damit der Abwehr von Angriffen dienen, erkennt diese jedoch nicht und entscheidet auch nicht über die Gegenmaßnahmen. Dies ist die Aufgabe von sogenannten IDS-Modulen (Intrusion Detection System), die zwar auf einer Firewall aufbauen, aber nicht zu dieser gehören.

Wie funktioniert eine Firewall?

Da Firewalls nach vorgegebenen Regeln entscheiden, welche Programme und Dienste auf das Netzwerk zugreifen dürfen, kann sie die Ausnutzung einer Sicherheitslücke nicht verhindern, wenn diese Programme oder Dienste explizit darauf zugreifen dürfen. Daraus folgt, dass die beste Firewall nichts bringt, wenn der User jedem Programm gestattet, auf das Netzwerk zuzugreifen. Hier ist also eine Sensibilisierung im Umgang mit Internetdiensten und anderweitigen risikobehafteten Anwendungen von größter Wichtigkeit.

Eines der Haupteinfallstore für Angriffe aus dem Internet ist der Webbrowser, da der darauf ausgelegt ist, Daten oder Zugriffe aus dem Netzwerk zu erlauben. Würde man in den Firewalleinstellungen beispielsweise den Zugriff des Browsers auf das Internet untersagen, würde dieser zwar kein Risiko mehr darstellen, allerdings wäre seine eigentliche Funktion damit ebenfalls ausgeschaltet.

Um zu gewährleisten, dass der Browser auf das Internet zugreifen kann, aber trotzdem sicher ist, muss die Firewall also anders vorgehen, um potenziellen Gefahren entgegenwirken zu können. Beispielsweise kann von vornherein verhindert werden, dass bestimmte Elemente im Browser, die Sicherheitslücken enthalten oder Schadsoftware auf den Computer einschleusen könnten, aktiviert werden. Das gilt beispielsweise auch für JavaScripte, die häufig vom Browser nicht ausgeführt werden. Diese Einstellungen können in den gängigen Browsern allerdings auch eingestellt werden, sodass die Firewall diese Aufgabe nicht übernehmen muss.

Im Idealfall kann eine Firewall auf heimlich installierte Schadsoftware aufmerksam machen und sogar den Netzwerkzugriff dieser Malware unterbinden, allerdings hängt dies stark von der Vorgehensweise der Schadsoftware ab und wie geschickt sie ihre Tätigkeit verbergen kann.

Persönliche vs. Externe Firewall – wo liegen die Unterschiede?

Je nachdem, wo eine Firewall ausgeführt wird, unterscheidet man die persönliche und die externe Firewall voneinander. Während die persönliche Variante auf dem eigenen Rechner, also lokal läuft, agieren externe Firewalls vor dem Computer beziehungsweise dem Computernetzwerk.

Dabei ist zu beachten, dass diese Unterscheidung keinerlei Wertung enthält, welche der beiden Varianten in irgendeiner Form besser für bestimmte Situationen geeignet wäre als die andere. Vielmehr können die beiden Typen als Ergänzung zueinander angesehen werden.

Persönliche Firewall

Die persönliche Firewall wird lokal auf dem Anwender des Computers ausgeführt. Ihre Aufgabe besteht darin, ungewollte Zugriffe von außen zu unterbinden. Abhängig davon, welche Software verwendet wird, kann sie auch versuchen auf dem Computer laufende Anwendungen davon abzuhalten ohne die Erlaubnis des Nutzers mit der Außenwelt zu kommunizieren.

Viren, die auf den Computer zugreifen wollen, müssen dies über einen Sicherheitsfehler in einem der laufenden Netzwerkdienste tun. Dadurch, dass die Firewall durch die gesetzten Regeln diesen Netzzugriff verhindern kann, kann sie mitunter diese Viren abhalten. Außerdem kann die Firewall dadurch verhindern, dass von außen versucht wird, Schadsoftware auf dem Computer lokal zu installieren.

Allerdings bietet die persönliche Firewall keinen Schutz vor der Installation von Schadsoftware, die auf andere Art auf den Rechner gelangen konnte, sprich nicht über Sicherheitslücken im Netzwerk.

Wie bereits erwähnt ist die Unwissenheit des Anwenders mitunter ein großes Risikoproblem. So können durch Fehlbedienung die Funktionen der Firewall relativ einfach komplett ausgehebelt werden.

Externe Firewall

Wie der Name bereits suggeriert, wird die Firewall nicht lokal auf dem Computer des Anwenders ausgeführt, sondern auf externer Hardware. Dabei beschränkt sie die Verbindung zwischen zwei Netzwerken, etwa dem Heimnetzwerk des Anwenders und dem Internet.

Die externe Firewall ist hervorragend dafür geeignet, unerlaubte Zugriffe von außen auf das interne System zu unterbinden. Zu beachten ist, dass das interne System hier nicht nur ein einzelner Rechner sein kann (wie etwa bei einer persönlichen Firewall), sondern aus einem ganzen Netzwerk von Rechnern (beispielsweise einem Firmennetzwerk).

Oft wird für diese Form der Firewall auch der Begriff der Hardware-Firewall verwendet, was allerdings nicht bedeutet, dass diese ausschließlich auf Hardware basiert. Eine Firewall besteht immer auch als essenzieller Bestandteil aus einer Softwareanwendung. Der Begriff soll allerdings zum Ausdruck bringen, dass die Software auf extra dafür ausgelegter Hardware ausgeführt wird und nicht auf dem lokalen Rechner.

Externe Firewalls können als Vermittler zwischen zwei Netzwerken angesehen werden. So wird in einem sichtbaren oder einseitig transparenten Modus der Firewall nach außen hin nicht der interne Rechner, sondern die Firewall als mit dem externen Netzwerk verbundene Instanz angezeigt. Die Rechner des internen Netzwerkes senden also ihre Anfragen an die Firewall, die diese dann an das äußere Netzwerk (beispielsweise das Internet) weitergibt. Daraus resultiert, dass die Angriffe nicht direkt auf den lokalen Rechner gerichtet sind, sondern die Firewall diese quasi abfängt.

Auch Schadsoftware, die auf einem Rechner des internen Netzes installiert wurde, kann an diesem Prozedere nichts ändern. Der Rechner ist aufgrund der zwischengeschalteten Firewall nur aus dem internen Netzwerk, nicht aber von außen aufrufbar, wodurch kein direkter Zugriff von außen möglich ist.

Im zweiten Teil dieses Artikel werden die jeweiligen Vor- und Nachteile der beiden Firewall-Typen näher beleuchtet und Techniken der Firewall unter die Lupe genommen.

Sollten Sie Probleme mit Schadsoftware oder Ihrer Firewall haben, helfen wir Ihnen gerne mit jeglichen Computer-Problemen weiter! Unsere qualifizierten IT-Spezialisten kümmern sich in ganz München darum!

Kontaktieren Sie uns:

  • Per Telefon unter 0176 75 19 18 18 oder
  • Per E-Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!

Wir freuen uns auf Sie!

Eine MAC-Adresse (Media-Access-Controll) ist eine eindeutige und in der Regel nicht veränderbare ID. Jedes Gerät mit einem Netzwerkadapter auf der Welt hat eine MAC-Adresse. Diese Adresse kann meistens auf Aufklebern auf den Geräten ausgelesen werden oder über die Kommandozeile. Je nachdem um welches Endgerät es sich hierbei handelt, sind die Wege unterschiedlich. Im Folgenden zeigen wir Ihnen die gängigsten Geräte auf denen ihr die eigene MAC-Adresse auslesen könnt.

Schritt 1: unter Windows 7:

Gehen Sie auf Start windows-start-button.png

Abbildung 1 - Start Button von Windows 7

windows-suchleiste.png

Abbildung 2 - Suchleiste

Schritt 2:

Geben Sie in die aufpoppende Suchleiste „CMD“ ein und klicken Sie auf cmd-icon-win7.png. Anschließend öffnet sich das Terminal wie in Abbildung 3.

terminal-fenster-windows.png

Abbildung 3 - Terminal (CMD) von Windows

Geben Sie den Befehl „ipconfig /all“ ein

cmd-mac-adresse.png

Abbildung 4 - Ausgabe vom Befehl "ipconfig /all" im Terminal

Suchen Sie anschließend nach dem Begriff „Drahtlos-LAN-Adapter Drahtlosnetzwerkverbindung“. info: Achten Sie darauf, dass Sie nicht den falschen Adapter auswählen, insbesondere wenn unter der Beschreibung „Microsoft Virtual WiFi Miniport Adapter“ steht, dann können Sie davon ausgehen, dass es sich hierbei um genau den falschen handelt.

Man kann es auch relativ einfach erkennen, ob es sich hierbei um den korrekten Netzwerk-Adapter handelt, wenn in der Beschreibung ein Name wie „Dell Wireless“ steht, oder ein anderer PC- Hersteller, jedoch nicht „Microsoft Virtual Adapter“. Bei den Begriffen mit „Virtual“ können Sie davon ausgehen, dass es sich hierbei um einen virtuellen Adapter handelt, welches eine andere Funktion hat. Das es den Beitrag sprengen würde, haben wir hierfür einen separaten Artikel geschrieben, welches Sie hier finden.

Wie kann ich unter Windows 10 die Mac-Adresse auslesen?

Schritt 1:

Gehen Sie auf „Startwindows10-startbutton.png und tippen Sie „cmd“ ein gehen Sie auf cmd-icon-win7.png. Anschließend befolgen Sie Schritt 2 ab Abbildung 3 (siehe oben).

suchfenster command icon

Abbildung 5 - Terminal in Windows 10 aufrufen

 

Sonntag, 04 August 2019 19:48

Was ist ein Modem?

geschrieben von

 

Jeder nutzt heutzutage ein Modem, nur die wenigsten von Ihnen wissen es vermutlich. Es kann auch daran liegen, dass das Wort heutzutage eher als Synonym für einen Router verwendet wird, was prinzipiell jedoch falsch ist. Ein Modem und ein Router machen nämlich zwei unterschiedliche Dinge, welche ich ihnen in diesem kurzen Beitrag erklären werde.

Das Modem im Detail:

Vielleicht kennen Sie es von früher, dass Sie über Windows eine DFÜ Verbindung herstellen mussten. In den Zeiten von Windows XP, wurde in den „Einstellungen -> Arbeitsplatz / DFÜ-Netzwerk -> Neue Verbindung“ eine PPPOE Verbindung aufgebaut. Oft hat zu dem Zeitpunkt auch ihr Endgerät merkwürdige Geräusche gemacht. Dies war zu der damaligen Zeit, der klassische Ton, wenn man sich ins Internet eingewählt hatte. Früher war es wesentlich teurer eine Internetverbindung Zuhause zu haben. Oder vielleicht kennen Sie auch noch die kostenfreien AOL-CD’s womit man für einen kurzen Testzeitraum im Internet surfen konnte. Falls man eine Leitung hatte, dann wurde meistens auch pro Minute abgerechnet. Da mehr und mehr Nutzer von Dialern bedroht wurden, wurden von den Internet-Service-Anbietern, dann auch die letzten alten Verträge in Flat-DSL-Verträge umgewandelt. Kurz zu Dialern: Hierbei handelt es sich kleine Schadprogramme die teure 0190 Nummern gewählt haben, um die Kunden über das Ohr zu hauen. Zum Monatsende bekam man dann eine teure Rechnung für Rufnummern, die man nie gewählt hatte. Zu dieser Zeit war es auch sinnvoll, sich nur einzuwählen, wenn man das Internet benötigt hatte. Heutzutage ist eine permanente Internetverbindung von allen möglichen Endgeräten schon allgegenwärtig.

Aber jetzt mal wieder zurück von der Nostalgie zu unserem eigentlichen Thema. Um es kurz zu halten: Ein Modem kann nur eine Verbindung zur Verteilstelle ihres Internentanbieters (ISP) aufbauen. Hierzu sind ein Benutzername und ein Passwort notwendig. Bei Telekom-Verträgen ist dann meistens auch noch eine Mitbenutzernnummer zu finden.

Der Router ergänzt ihren Modem um eine wichtige Funktion

Nachdem Sie eine mit ihrem Computer eine Verbindung zu ihrem Modem aufgebaut haben, dann sind sie auch schon im Internet eingewählt. Das Problem hierbei ist, dass sie nur einen Computer an ihrem Modem anschließen können. Genau hier kommt dann der Router ins Spiel. Der Router ist mit seinem integrierten Switch die Sammelstelle für alle Clients (Computer) und überträgt (routet) diese Anfragen an den Modem, welches wiederum ihren gesamten Datentraffic an die Zwischenstelle ihres Internet Service Providers schickt.

Donnerstag, 25 Juli 2019 14:08

Dateierweiterungen: Was sind RFT, DOC und DOCX?

geschrieben von

Bei Ihrer Arbeit mit Computern werden Ihnen schon häufig verschiedene Dateiformate untergekommen sein. Bei der Vielzahl an verschiedensten Dateitypen und -varianten geht schnell einmal der Überblick verloren. Mit diesem Artikel beginnen wir eine Artikelreihe, die sich verschiedenen Dateitypen widmen wird.

Warum braucht man verschiedene Textdateiformate?

Zuallererst sollte die Frage geklärt werden, warum es überhaupt eine so große Bandbreite an verschiedenen Textdokumenten gibt. Zum einen liegt das daran, dass verschiedene Anwendungsbereiche verschiedene Voraussetzungen an die verwendeten Dateien stellen.

Beispielsweise ist es in der Maschinensprache völlig irrelevant, wie Informationen optisch formatiert sind, da Maschinen nur 0er und 1er verstehen – egal, wie groß, in welcher Schrift oder ob fett gedruckt. Diese Nicht-Formatierung nennt man auch plain text (engl. f. Klartext). Durch das Weglassen unnötiger Formatierungsinformationen wird hier sowohl der benötigte Speicherplatz verringert als auch die Verarbeitungsgeschwindigkeit erhöht.

Andererseits wollen Sie bestimmt keine Geburtstagseinladung in Klartext ohne jegliche Formatierung verschicken, oder? Neben dem reinen Klartext benötigen wir also auch andere Dateiformate, die den jeweiligen Anforderungen Rechnung tragen.

Ein weiterer Grund für die Vielzahl an Dateiendungen ist, dass verschiedene Hersteller gerne ihr eigenes Süppchen kochen und ihr ganz eigenes Dateiformat verwenden möchten. Manchmal hat dies seine Berechtigung, wenn beispielsweise das Textprogramm viele Features hat, die die meisten anderen Textverarbeitungsprogramme eben nicht aufweisen. Als Beispiel kann hier das .pap Format von Papyrus Autor genannt werden, das eine Vielzahl an verschiedenen Informationen und Daten abspeichert und für Vielschreiber wie Journalisten oder Schriftsteller gedacht ist. Andererseits gibt es auch das .pages Format, das im Prinzip nichts anderes ist als die Apple-Variante von .doc.

Weiterhin kann die Weiterentwicklung eines Formates dafür verantwortlich sein, dass sich mehrere Varianten eines Dateityps etablieren, so zum Beispiel bei .doc und .docx von Microsoft geschehen.

Die gängigsten Textdateiformate

Kommen wir zu den am weitesten verbreiteten und von der Microsoft Corporation entwickelten Dateiformate für Textdokumente. Bereits in den 1980er Jahren arbeite Microsoft an eigenen Dateiformaten, die sogar noch bis heute Verwendung finden.

.rtf: Rich Text Format

Das bereits 1987 eingeführte Rich Text Format von Microsoft dient in erster Linie als Austauschformat zwischen verschiedenen Textverarbeitungsformaten. Da es im Gegensatz zu reinem plain text eine breite Palette an Textformatierungsmerkmalen enthält und nicht an eine bestimmte Software gebunden ist, eignet es sich hervorragend für den Austausch von Dateien über verschiedene Betriebssysteme hinweg.

Beinahe alle Textverarbeitungsprogramme können dieses Dateiformat verarbeiten, allerdings wird keine Layouttreue gewährleistet, da insbesondere Vorlagen und Bilder, Textrahmen oder andere Objekte das Layout beim Öffnen mit anderen Programmen beeinträchtigen können. Die verwendeten Schriftarten müssen allerdings auf dem Betriebssystem installiert sein, damit sie verwendet werden können, da diese nicht in die Textdatei eingebettet werden.

Dieses Dateiformat war eine der wenigen Möglichkeiten, Texte ohne großen Aufwand zwischen Windows und DOS auszutauschen. Weiterhin ist es das Standard-Dateiformat des Textverarbeitungsprogramms WordPad.

Mittlerweile hat dieses Dateiformat jedoch zunehmend an Bedeutung verloren.

.doc: Das Dokument

Dieses Dateiformat ist das wohl bekannteste Format, das es überhaupt gibt. Es wurde mit Microsoft Word 1983 offiziell eingeführt und erst 20 Jahre später mit der Version von 2007 durch das Folgeformat .docx abgelöst.

Allerdings blieb das Format nicht für zwei Jahrzehnte vollkommen unverändert. Natürlich wurde es immer wieder um Funktionen erweitert, doch verzichtete Microsoft darauf, mit einer neuen Variante auch eine neue Dateiendung einzuführen. So gibt es beispielsweise zwischen Office 1995 und Office 1997 einen Einschnitt in der Kompatibilität. Zwar werden die Dateien vor und nach diesem Einschnitt als .doc Dateien abgespeichert, sie sind allerdings so unterschiedlich, dass sie eigentlich zwei verschiedene Formate darstellen und dementsprechend auch nicht kompatibel zueinander sind.

Das .doc Format beherrscht neben reiner Textformatierung auch Tabellen, Bilder und andere Objekte.

.docx: Der neue offene Standard

Das .docx Dateiformat gehört zu einer Reihe von von Microsoft entwickelten Formaten, die unter Office Open XML zusammengefasst werden. .docx-Dateien werden seit 2007 standardmäßig von Microsoft Word verwendet. Die beiden anderen Formate sind .xlxs und .pptx und sind neuen Standards für Microsoft Excel und PowerPoint.

Das Format basiert auf XML (Extensible Markup Language) und ist frei verfügbar. Durch die extrem weite Verbreitung von Microsoft Word (über eine Milliarde Nutzer) kann das .docx Format mittlerweile als de facto Standard angesehen werden. Da es von allen gängigen Textverarbeitungsprogrammen verarbeitet werden kann ist es unwahrscheinlich, dass sich daran in absehbarer Zukunft etwas ändern wird.

Entwickelt wurde dieser neue Standard, da das ältere .doc Format nicht offen verfügbar war und der Ruf nach einem offenen Dateiformat vor allem von Regierungen in den USA und in der EU immer lauter wurden.

.docx und .odt: Was unterscheidet sie?

Ähnlich wie das .docx Format von Microsoft basiert .odt (Open Document Writer) auf XML. Allerding ist .odt (genauso wie alle anderen Open Document Formate) vollständig OpenSource.

Microsoft erklärt auf seiner Internetseite, dass einige Features von Word nicht vom .odt Format unterstützt werden. Generell kann man sagen, dass das .odt Format eher für die Allgemeinheit ausgelegt ist, da es schlichtweg nichtkommerziell ist, wohingegen Microsoft stets ein wirtschaftliches Interesse mit seinen, wenn auch offenen, Standardformaten verfolgt.

Daraus resultieren Eigenheiten des .odt Formats, die für den Nutzer von Vorteil sind. Beispielsweise können mit dem OpenSource-Format ausfüllbare Formulare erstellt und direkt als PDF-Datei exportiert werden. Unter Word funktioniert das auch, allerdings ist das PDF-Formular dann nicht mehr ausfüllbar. Microsoft setzt hier auf die hauseigenen Vorlagen, die jedoch weitaus umständlicher zu erstellen sind als ihre Pendants mit .odt. Das odt. Format liefert damit eine weitaus simplere Variante zum Erstellen solcher Formulare.

Weitere Dateiformate für Textdokumente

Neben den oben genauer vorgestellten Dateiformaten gibt es noch eine ganze Reihe weiterer Formate, die hier kurz vorgestellt werden sollen.

  • .pages = Format des standardmäßig in iOS integrierte Word-Pendant Pages
  • .txt = einfaches Format, die mit plain text arbeitet, unter anderem Standardformat von Notepad
  • .pap = komplexes Format von Papyrus Author für Schriftsteller und Vielschreiber
  • .csv = comma-separated values. Format zur Speicherung oder zum Austausch einfach strukturierter Daten wie Tabellen oder Listen

Sicherheit bei Textdateien

Ein wichtiger Hinweis für die Nutzung von Textdateien, die Makros beinhalten: Diese Dateien können enorme Schäden am PC des Nutzers verursachen, da die Makros beim Aufrufen der Dateien Skripte ausführen können, die einem Computervirus oder Trojaner gleichkommen. Dateien mit enthaltenen Skripten erkennt man unter anderem an den Dateiendungen .docm oder .dotm.

Beim Umgang mit solchen Dateien sollte darauf geachtet werden, dass niemals makrobehaftete Dateien aus unbekannten oder nicht vertrauenswürdigen Quellen geöffnet werden sollten. Um sicher zu gehen, dass nicht aus Versehen solche Dateien geöffnet werden können, empfiehlt es sich, die Makrofunktionen beispielsweise in Microsoft Word komplett zu deaktivieren. Nähere Informationen zu diesem Thema finden Sie in unserem Artikel darüber.

Sollten Sie dennoch Probleme mit solchen Dateien haben, helfen wir Ihnen sehr gerne weiter. Unsere qualifizierten IT-Spezialisten aus München kümmern sich um jede Art von Malware oder von Makros verursachten Schäden auf Ihrem Computer.

Kontaktieren Sie uns einfach

  • Per Telefon unter 0176 75 19 18 18 oder
  • Per E-Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!

Wir freuen uns auf Sie!

Dienstag, 23 Juli 2019 10:39

Was sind Dateinamenerweiterungen?

geschrieben von

Mit diesem Artikel wollen wir eine kleine Reihe starten, die sich mit verschiedenen Dateiendungen beschäftigt und ein wenig Aufschluss darüber gibt, was die gängigsten Dateitypen ausmacht und was sie voneinander unterscheidet. Doch zuerst klären wir, was Dateiendungen überhaupt sind und wozu sie überhaupt dienen.

Was sind Dateinamenerweiterungen?

Genannt werden sie auch Dateierweiterung oder Dateiendung und sind der letzte Teil des Dateinamens. Gewöhnlich wird diese Endung vom Rest des Namens mit einem Punkt abgetrennt, wobei der Punkt allerdings nicht Teil der Erweiterung ist.

Die Dateiendungen dienen dazu, das Format der Datei erkenntlich zu machen. Da sie aber nicht normiert sind, ist es prinzipiell auch möglich, dass eine Endung für verschiedene Dateitypen verwendet wird, was allerdings im Allgemeinen vermieden wird, um offensichtliche Missverständnisse und Probleme zu verhindern.

Es ist möglich, die Dateiendung durch einfaches Umbenennen zu verändern, was dazu führen kann, dass manche Betriebssysteme (allen voran Windows) dann diesen neuen Dateityp annehmen, letztlich jedoch beim Öffnen daran scheitern, dass die Datenstruktur eine völlig andere ist. Um das versehentliche Verändern der Dateiendung zu verhindern, werden die Dateiendungen oft ausgeblendet (unter Windows ist dies beispielsweise über die Einstellungen des Explorers möglich).

Verwendung und Nutzen von Dateiendungen

Generell nutzt die Dateiendung in erster Linie dem Nutzer, um zu erkennen, um was für eine Art Datei es sich handelt. Dadurch kann beispielsweise entschieden werden, welches Programm man zum Öffnen dieser Datei benötigt. Es hilft aber auch dabei zu entscheiden, ob eine Datei vertrauenswürdig ist oder nicht. Eine .exe oder .bat Datei aus einer unbekannten Quelle beispielsweise ist potenziell sehr gefährlich, da sie Viren oder andere Schadsoftware enthalten kann.

Für manche Betriebssysteme (zum Beispiel Windows) ist die Dateiendung allerdings wichtig, um zu erkennen, welches Dateiformat vorliegt. Windows verlässt sich nämlich nur auf die Endung der Datei, um ein Programm auszuwählen, mit dem sie geöffnet werden soll. Dabei weist das Betriebssystem jede Dateiendung einem bestimmten Programm zu, mit dem es standardmäßig geöffnet werden soll. Wie bereits erwähnt sind Dateiendungen allerdings nicht normiert und können ohne Probleme vom User abgeändert werden. Deshalb kann es passieren, dass Windows dann nicht weiß, wie es die betreffende Datei öffnen soll.

Andere Systeme hingegen (wie beispielsweise macOS oder Unix) verlassen sich nicht nur auf die Dateiendung, sondern verwenden andere beziehungsweise zusätzliche Mechanismen für das Erkennen des Dateityps. Beispielsweise können die Versionsnummer oder die Plattformangabe in der Datei zu Rate gezogen werden.

Weiterhin wird auch eine Mischung aus diesen beiden Varianten angewandt. So verlässt sich KDE (K Desktop Environment), die grafische Oberfläche vieler Linux-Derivate, zunächst auf die Dateiendung. Wenn daraus keine eindeutige Klassifizierung des Dateityps erfolgen kann, weil die Endung fehlt oder dem System unbekannt ist, kann KDE auch den Inhalt der Datei verwenden, um auf eine Lösung des Problems zu kommen.

Gefahren durch verschleierte Dateiendungen

Durch das standardmäßige Ausblenden der Dateiendungen ergibt sich nicht nur der Vorteil, dass man sie nicht mehr aus Versehen ändern kann und damit Schaden anrichten könnten. Daraus resultiert auch, dass die tatsächliche Endung der Datei verschleiert bleibt, was in manchen Situationen (wenn zum Beispiel die Dateiendung relevant für den Arbeitsprozess ist) unvorteilhaft sein kann, sondern sie birgt auch ein großes Sicherheitsrisiko.

So kann beispielsweise vor die eigentliche Endung der Datei eine harmlose Dateiendung eingefügt werden:

Bild.jpeg.exe

Dadurch, dass unter Windows die Dateiendungen standardmäßig nicht angezeigt wird, kann hieraus ein enormes Sicherheitsrisiko entstehen, da der User vermeintlich denkt, dies sei eine normale Bilddatei im .jpeg-Format. In Wirklichkeit ist es eine Executable (also ausführbare Datei) und kann beispielsweise einen Virus oder Trojaner enthalten.

Es ist also zu empfehlen, die Anzeige der Dateiendungen zu aktivieren, auch wenn man diese aus Versehen verändern könnte – das lässt sich rückgängig machen, den ausgeführten Virus bekommen sie hingegen nicht so einfach wieder von Ihrem Rechner runter.

Fazit

Die Dateiendungen sind in erster Linie eine Informationsquelle für den User und für das Betriebssystem, damit dieses mit der Datei umgehen kann. Allerdings bergen Dateiendungen mitunter Gefahren.

In den weiteren Artikeln dieser Reihe werden wir uns mit den verschiedensten Dateiendungen auseinandersetzen und zeigen was sie unterscheidet.

Haben auch Sie ein Problem mit einer Dateiendung? Können Sie eine Datei nicht öffnen? Oder haben Sie sich gar Malware eingefangen, die beseitigt werden muss? Dann helfen wir Ihnen gerne dabei! Unsere qualifizierten Techniker kümmern sich gerne um Ihr Computer-Problem!

Kontaktieren Sie uns noch heute!

  • Per Telefon unter 0176 75 19 18 18 oder
  • Per E-Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!

Wir freuen uns auf Sie!

Donnerstag, 18 Juli 2019 11:25

Wie funktioniert DNS over HTTPS (DoH)? (Teil 2)

geschrieben von

Im zweiten Teil unseres Artikels über DNS over HTTPS behandeln wir die Schwachstellen des DNS, wie es ausgenutzt werden kann und wie neue Technologien diese Sicherheitslücken schließen sollen.

Wie kann das DNS ausgenutzt werden, um den Nutzer anzugreifen?

Im Normalfall teilt der Resolver dem DNS-Server mit, nach welcher Domain man sucht. Außerdem beinhaltet die Anfrage zumindest einen Teil der eigenen IP-Adresse. Da man sich die fehlenden Teile durch anderweitige Informationen erschließen könnte, hätten Angreifer sämtliche Möglichkeiten, Ihren Rechner ins Visier zunehmen. Es gibt zwei Möglichkeiten, wie Hacker dies nun ausnützen könnten, um sich Ihnen gegenüber einen Vorteil zu verschaffen, das Tracking und das Spoofing.

Tracking

Es ist also nicht sonderlich schwer Ihre IP-Adresse während einer Anfrage beim DNS-Server auszulesen. Vielleicht denken Sie sich jetzt, dass das ja an sich kein Problem darstellt, Sie haben schließlich nichts zu verbergen? Das mag sein, allerdings wollen Sie sicherlich auch nicht, dass Ihre Daten beziehungsweise Ihr Surfverhalten verkauft werden, oder?

Mit Ihrer IP-Adresse lässt sich mit der Zeit nämlich leicht ein Profil von Ihnen erstellen – was sie suchen, einkaufen, welche Seiten sie häufig besuchen, welche Interessen sie haben. Dadurch lässt sich wunderbar personalisierte Werbung für sie schalten, damit sie noch mehr einkaufen von dem, was sie ohnehin bereits besitzen.

Allerdings hört das nicht bei Werbung auf. Ihre Daten sind äußerst wertvoll für viele Firmen, die unheimlichen Profit daraus schlagen – Google ist nicht umsonst durch den Verkauf solcher Daten milliardenschwer geworden.

Und selbst wenn Sie Ihrem Resolver, den Sie für Ihr privates Netzwerk eingerichtet haben, vertrauen – sobald sie mobil unterwegs sind, ein fremdes WLAN verwenden oder sich in einem Hotel einloggen, verwenden Sie möglicherweise einen anderen Resolver, der dann eben nicht mehr vertrauenswürdig ist. Und wer weiß schon, wie dieser Resolver mit denen von Ihnen gesammelten Daten umgeht?

Spoofing

Beim Spoofing klinkt sich jemand in Ihre Verbindung ein und verändert die Antwort, die vom DNS Server an Ihren Browser zurückgesendet wird. Anstatt Ihnen also die IP-Adresse der Seite, die Sie besuchen wollen, zu geben, wird Ihnen eine falsche Adresse zugesteckt. Auf diese Weise kann eine Seite Sie davon abhalten eine bestimmte Seite zu besuchen.

Warum sollte eine Seite tun? Nehmen wir folgendes Beispiel: Sie stehen in einem Laden und wollen die Preise im Regal mit denen im Internet bei einem anderen Anbieter vergleichen. Sollten Sie nun im WLAN-Netzwerk des Ladens sein, in dem Sie gerade stehen, verwenden Sie auch den Resolver, der in diesem Netzwerk eingerichtet ist. Und dem Geschäft wäre sicherlich daran gelegen, dass sie keine günstigeren Preise finden, als die, die sie im Laden vor sich haben, oder?

Und schon haben Sie ein Motiv dafür, eine andere, verfälschte Internetseite anzeigen zu lassen oder die gesuchten Vergleichsportale einfach vollständig zu blockieren.

DNS 3.JPG

Wie kann diesen Sicherheitslücken entgegengewirkt werden?

Netzwerke kommen im Normalfall ohne Probleme mit den oben genannten Praktiken davon, da die wenigsten Nutzer überhaupt davon wissen, geschweige denn sich damit auskennen und Gegenmaßnahmen ergreifen könnten. Und vielen wäre es wohl auch ziemlich egal, selbst wenn sie davon wüssten. Doch selbst für User, die sich mit der Materie auskennen, ist es schwierig, dafür zu sorgen, dass mit ihren Daten kein Schindluder getrieben wird.

Nun gibt es neben Browsern, die zu Firmen mit wirtschaftlichen Interessen gehören, auch Initiativen, die OpenSource und non-profit arbeiten. Die Mozilla Foundation beispielsweise arbeitet an Lösungen, die diese Sicherheitslücken schließen.

Der Mozilla Firefox nutzt nun also standardmäßig den sogenannten Trusted Recursive Resolver (TRR), der in hohem Maße darauf ausgelegt ist, keine verwertbaren personenbezogenen Daten der Nutzer weiterzugeben oder zu speichern. So werden sämtliche für die Suchanfragen verwendeten Informationen innerhalb von 24 Stunden wieder gelöscht. Der OpenSource-Browser kann damit den vom Netzwerk vorgegebenen Resolver ignorieren und eine sichere Variante verwenden.

Neben dem Verwenden eines auf Privatsphäre getrimmten Resolvers sorgt die Verschlüsselung der Suchanfragen eine große Rolle. So wird mittlerweile standardmäßig (und von allen aktuellen Browsern) das HTTPS-Protokoll angewandt.

Weiterhin sendet der TRR von Firefox nicht die gesamte angefragte Domain, sondern immer nur den Teil der Adresse, der für den Server, der gerade kontaktiert wird, relevant ist. Außerdem wird die Anfrage von dem von Firefox genutzten Dienst Cloudflare nicht weitergeleitet, sondern die Anfrage wird von einer dem Dienst eigenen IP-Adresse gesendet.

So wird nur ein Minimum an Informationen versandt, sodass zumindest der Aufwand, Rückschlüsse auf die Zieladresse oder die IP-Adresse zu erhalten, bei weitem größer wird.

Welche Risiken sind noch nicht behoben?

Auf die oben genannte Weise wird also die Zahl derjenigen, die Ihre Daten abgreifen können, um ein Vielfaches reduziert. Allerdings sind Ihre Verbindungen damit noch nicht vollständig sicher.

Nachdem Sie über den DNS-Server herausgefunden haben, wo Sie das Ziel Ihrer Suche finden können, müssen Sie sich erst noch mit dem jeweiligen Server verbinden. Um dies zu tun, schickt der Browser eine Anfrage an diesen Server – und diese Anfrage ist nicht verschlüsselt. Hier kann sich also sehr wohl jemand einklinken und mithorchen, welche Seiten Sie besuchen.

Sobald Sie allerdings mit dem jeweiligen Server verbunden sind, ist alles verschlüsselt. Praktischerweise gilt das auch für alle Seiten, die auf diesem Server gehostet werden. Schlagen Sie beispielsweise einen weiteren Wikipediaartikel nach, der auf demselben Server gespeichert ist, so wird keine vollständige Anfrage an den Server geschickt, sondern die bestehende (verschlüsselte) Verbindung wird weiterhin verwendet.

Fazit

Da das DNS eines der ältesten Grundbausteine des Internets ist und an dessen Struktur sich nicht viel verändert hat was die Privatsphäre oder Datensicherheit verbessert, ist es an der Zeit, dies in Angriff zu nehmen. Gemeinnützige Initiativen wie Mozilla unterstützen diese Weiterentwicklung und bringen sie bewusst voran.

Wer an Mozillas Studie zur Weiterentwicklung des oben beschriebenen TRR mitwirken möchte, kann sich hierfür die in Entwicklung befindende Firefox Nightly auf der Mozilla-Homepage herunterladen.

Dienstag, 16 Juli 2019 14:38

Wie funktioniert DNS over HTTPS (DoH)? (Teil 1)

geschrieben von

Wie würden Sie einem Kollegen erklären, was Ihr Browser im Hintergrund anstellt, wenn Sie ihn anweisen, eine Internetseite aufzurufen? Überfragt? Dann hilft Ihnen der folgende Artikel weiter. Hier erklären wir, was DNS und HTTPS sind und wie sie zusammenspielen.

Die Grundlagen: Was ist HTTPS?

Mit der zunehmenden Digitalisierung und der Omnipräsenz des Internets im alltäglichen Leben steigt auch das Verlangen nach der Gewährleistung von Privatsphäre und Datenschutz. Durch neue Datenschutzgesetze (zum Beispiel die DSGVO) soll diesem Verlangen Sorge getragen werden. Aber auch Softwareunternehmen und Organisationen arbeiten zunehmend an Sicherheitslösungen – nicht nur aus Gründen des Datenschutzes, sondern auch aus eigenem und wirtschaftlichem Interesse natürlich. HTTP steht dabei für Hypertext Transfer Protocol.

Kommen wir auf unsere Ausgangsfrage zurück: Was passiert, wenn Sie eine Internetseite aufrufen? Eine einfache Antwort wäre, dass der Browser erst eine Anfrage an den Server verschickt, dass er die Seite gerne anzeigen würde und der Server dann eine Antwort verschickt, in der die Datei steckt. Das nennt man dann HTTP und dürfte Ihnen bekannt vorkommen – etwas ähnliches steht in der Adresszeile Ihres Browsers ganz am Anfang.

DNS 2.JPG

Das Problem bei der Sache ist: So einfach funktioniert das Internet dann doch nicht. Denn normalerweise steht der Server, den Ihr Browser kontaktiert nicht gleich bei Ihnen ums Eck, sondern gerne auch mal auf einem völlig anderen Kontinent. Und dorthin gibt es von Ihrem PC aus auch keine direkte Kabelverbindung. Also müssen hierfür Mittelsmänner herhalten, die erst die Anfrage an den Server weitergeben und das gleiche dann auch mit der Antwort machen.

Diese Prozedur ist gut mit einem Klassenzimmer vergleichbar. Ein Schüler schreibt einen Brief und den Namen des Adressaten außen drauf, um ihn dann über mehrere Stationen an einen weiter entfernten Mitschüler zu schicken. Das Problem dabei ist, dass vielleicht nicht jeder der Mitschüler, durch deren Hände der Brief wandert, auch vertrauenswürdig sind und nicht neugierig den Inhalt des Briefes lesen.

DNS 1.JPG

Um diesen neugierigen Mitschülern entgegen zu wirken, wurde HTTP weiterentwickelt zu HTTPS – und das ist das, was tatsächlich in der Adresszeile Ihres Browsers steht. Das angehängte S steht für secure, also sicher. Man kann sich diese Weiterentwicklung als Brief mit Vorhängeschloss vorstellen, zu dem nur der Sender und der Empfänger den Schlüssel haben, die einzelnen Mittelsmänner (oder Schüler) aber eben nicht.

Dieses virtuelle Vorhängeschloss behebt schon einige Sicherheitslücken. Absolut sicher ist es aber auch nicht. Zum einen muss der Sender als ersten Schritt den Server kontaktieren, um eine Verschlüsselung aufbauen zu können. Diese erste Kontaktaufnahme ist aber logischerweise noch nicht verschlüsselt, da der Server sonst nichts damit anfangen könnte.

Die zweite Lücke, an der die Daten noch immer ungeschützt sind, besteht am DNS.

Was ist das Domain Name System (DNS)?

Die DNS hat in diesem Fall nichts mit Genetik zu tun, sondern steht für Domain Name System. Wie in unserem Vergleich mit dem Klassenzimmer muss auf der Anfrage des Nutzers quasi der Name des Empfängers stehen. Da der Server aber mit dem Klarnamen der Homepage nicht wirklich etwas anfangen kann, muss dieser so gestaltet sein, dass der Server versteht, was zu tun ist. Dies wird über das DNS erreicht.

Im Prinzip wird über das DNS jeder Internetseite nur eine IP-Adresse zugeordnet, mit der sie eindeutig zu erreichen ist. Damit der Browser weiß, wie er das tun muss, müsste er über eine sehr lange Liste verfügen, in der alle verfügbaren Webseiten eingetragen sind, ähnlich einem Telefonbuch. Allerdings hätte man damit das Problem, dass bei der enormen Menge an neu angelegten Webseiten diese Liste gar nicht schnell genug aktualisiert werden könnte. Also unterteilt man sie einfach in eine Reihe weitere Listen.

Es entsteht also quasi eine Datenbank mit vielen Unterlisten, die separat verwaltet und aktualisiert werden können. Schauen wir uns beispielsweise folgende Internetadresse an:

de.wikipedia.org

Die Punkte in der Adresse separieren die einzelnen Teillisten voneinander. Dabei geht der Browser (beziehungsweise der sogenannte Resolver) von hinten nach vorne vor. Als erstes wird also ein Server (der Root DNS Server) kontaktiert, der dann einen Server mit der Liste für die top-level Domains zurückgibt. In unserem Fall bräuchten wir einen Server, der mehr über .org Domains weiß.

Auf diesem Server finden wir dann wiederum alle Informationen über die second level domains, die unter .org zu finden sind. Für uns wäre das also der Namensserver für Wikipedia. Dieser Server kann uns dann weiterverbinden auf den zuständigen Server für die subdomains von Wikipedia. Hier bekommen wir nun also die Information, unter welche IP-Adresse die HTML-Datei der deutschen Wikipedia-Seite zu finden ist. Diese Adresse schickt der Resolver dann zurück an Ihren Browser.

Der Resolver ist allerdings nicht immer derselbe. Es gibt zwei Möglichkeiten, wie entschieden wird, welcher Resolver verwendet werden soll. Entweder der Benutzer stell ganz konkret einen Resolver ein, sodass sein Computer immer diesen einen verwendet oder er belässt die Voreinstellungen, sodass der Resolver vom System ausgesucht wird.

Sicherheitsprobleme im Internet

Im zweiten Teil unseres Artikels über DNS über HTTPS (DoH) lesen Sie mehr über die Sicherheitsrisiken beim Surfen im Internet, wie diese geschlossen werden können und was Sie als Nutzer aktiv für Ihre Privatsphäre tun können.

Haben Sie Probleme mit dem Internet oder Sicherheitsbedenken beim Surfen? Unsere IT-Spezialisten aus München helfen Ihnen gerne bei allen Ihren PC-Problemen weiter!

Nehmen Sie noch heute mit uns Kontakt auf!

  • Per Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein! oder
  • Per Telefon unter Rufnummer 0176 75 19 18 18

Wir freuen uns auf Ihre Anfrage!

Donnerstag, 11 Juli 2019 12:59

Was ist das Jahr-2038-Problem?

geschrieben von

Zur Jahrtausendwende befürchteten viele Menschen, dass es zu einem großflächigen Ausfall der damals vorhandenen IT-Infrastruktur kommen könnte. Ein großer Teil dieser Befürchtungen war reiner Aberglaube, doch gab es den sogenannten Millenium-Bug, der tatsächlich für einige Probleme sorgte, vor allem bei Geräten und Systemen, die in irgendeiner Weise auf eine Datumsanzeige setzten.

Im Jahre 2038 wird es wieder einen solchen Moment geben, in dem durch fehlerhafte Datumsanzeigen schwerwiegende Probleme auftreten könnten, denn am 19. Januar 2038 um 03:14:07 Uhr UTC läuft zwar nicht der Maya-Kalender ab, sondern die sogenannte Unixzeit.

Was ist die Unixzeit und warum läuft sie ab?

Die sogenannte Unixzeit ist eine Zeitdefinition, die in den 70er Jahren für das Betriebssystem Unix eingeführt wurde. In der aktuell gültigen Definition von 1975 begann die Unixzeit am 1. Januar 1970, 00:00:00 Uhr UTC (UTC = Coordinated Universal Time = koordinierte Weltzeit). Sie zählt dabei die vergangenen Sekunden seit dem Startdatum, wobei Schaltsekunden übersprungen werden.

Die Unixzeit hat insgesamt eine Kapazität von 2.147.483.647 Sekunden, was einer vorzeichenbehaftete 32-Bit-Ganzzahl entspricht (231 – 1). Sobald diese überschritten wird (was im Jahre 2038 der Fall sein wird), springt das Vorzeichen von positiv auf negativ um, was zu einer Zeitangabe weit vor dem 1. Januar 1970 bedeuten würde.

Hier ist das die Krux des Jahr-2038-Promblems zu erkennen. Sämtliche Systeme, die diese 32-Bit-Unixzeit verwenden, werden ab diesem Zeitpunkt ein völlig falsches Datum anzeigen und verarbeiten. In der Softwareentwicklung nennt man dieses Problem auch Zählerüberlauf.

Mögliche wirtschaftliche Folgen

Da Unixsysteme vor allem bei Banken und ihm Versicherungssektor eine weite Verbreitung besitzen, sind diese Wirtschaftszweige natürlich besonders gefährdet, vor allem, da diese Branchen stark auf korrekte Zeitstempel angewiesen sind. Neben diesen Servern und anderen Unixsystemen arbeiten viele eingebettete Systeme (z.B. Router oder elektronische Messgeräte) mit unixartigen Betriebssystemen.

Gravierend könnten die wirtschaftlichen Schäden werden, wenn beispielsweise Transaktionen von Banken nicht getätigt werden, weil sie weiterhin auf den direkten Zeitstempel warten. Der würde allerdings länger auf sich warten lassen, da die Unixzeit fälschlicherweise einen Zeitpunkt im Dezember 1901 angeben würde.

Für die Anwender von unixbasierten Betriebssystemen oder Programmen könnte sich das Jahr-2038-Problem dadurch äußern, dass die Software in eine Endlosschleife gerät und sich dadurch „aufhängt“, da die Programme auf einen gewissen (scheinbar weit in der Zukunft liegenden) Zeitpunkt warten.

Sollte das Problem mit der ablaufenden Unixzeit also nicht rechtzeitig behoben werden, drohen in vielen wirtschaftlichen Bereichen, in den mitunter extrem viel Geld steckt, enorme wirtschaftliche Schäden und Systemtotalausfälle.

Behebung des Problems

Um diesem Problem zu beheben und um eine Wiederholung der Folgen wie beim Millenium-Bug von 2000 zu verhindern, bei dem durch ungenügende Vorbereitung ein ähnlicher Fehler in der Verarbeitung von Jahreszahlen zu wirtschaftlichen Schäden im Bereich von mehreren hundert Milliarden US-Dollar eintraten, werden schon weit im Voraus Vorkehrungen getroffen, um die Schäden zu minimieren oder komplett auszuschließen.

Grundlegend wird die Unixzeit von 32-Bit auf 64-Bit umgestellt, was dazu führen würde, dass die dann neu definierte Unixzeit erst in 292 Milliarden Jahren auslaufen würde. Zum Vergleich: Das Universum ist bisher circa 13,81 Milliarden Jahre alt. Bis das der Fall sein wird, bleibt der Menschheit also noch genug Zeit, um eine technische Lösung für dieses Problem zu finden.

Diese Umstellung ist bereits im Gange und wird sukzessive mit neuen Unixupdates auf die verschiedensten Systeme aufgespielt. Allerdings ist damit das Problem nicht endgültig gelöst oder Schäden abgewandt, da dadurch zwar die Server eine 64-Bit-Unixzeit liefern, die Programme, die noch mit 32-Bit arbeiten diese allerdings nicht verarbeiten können, was erneut zum Jahr-2038-Problem führt. Es müssen also auch sämtliche Programme, die die Unixzeit vernwenden, auf 64-Bit aufgerüstet werden.

Diese Umstellung kann mitunter sehr aufwendig sein, da der komplette Programmcode vieler und komplexer Programme durchforstet und aktualisiert werden muss.

Eine Alternative zur Umstellung auf eine 64-Bit Unixzeit mit Sekundenschritten stellt eine Verkleinerung der Zeitintervalle dar, wie sie so bereits in vielen Entwicklungsumgebungen wie bei JAVA (64-Bit und Millisekunden) eingesetzt werden. Da gerade im Bankensektor eine so hohe zeitliche Genauigkeit von Nöten ist, scheint es sinnvoll, die Unixzeit auch in dieser Hinsicht zu überarbeiten.

Eine weitere Möglichkeit wäre es, den Zeitstempel als Zeichenkette (YYYYMMDDHHMMSS) abzuspeichern, wie es in ISO 8601 bereits vorgesehen ist. Dies würde bis zum Jahreswechsel 9999/10000 ausreichen, um Jahr-Überlauf-Probleme auszuschließen. Allerdings müssten auch hier etliche Programme angepasst werden, da innerhalb eines Programms der Zeitstemepl wieder in ein problematisches Binärformat umgewandelt werden könnten.

Ähnliche Probleme

Das bereits erwähnte Jahr-2000-Problem (oder Millenium Bug) verursachte zum Jahrtausendwechsel enorme wirtschaftliche Schäden und sorgte sogar für eine Rezession in der Informatikbranche.

Zehn Jahre später, im Jahr 2010 traten einige der für das Jahr 2000 erwarteten Fehler unerwartet auf und überraschte die Wirtschaft. So wurden durch fehlerhafte Datumsformate vor allem bei EC- und Kreditkarten die Jahre 2010 und 2016 vertauscht.

Beim Jahr-2027-Problem werden auf Rechnern der 3000er Serie des Herstellers Hewlett-Packard die Bits für das Datenformat aufgebraucht sein. Da diese Rechner allerdings seit 2015 keinen Support mehr erfahren und bereits mehrere Jahrzehnte alt sind, sind hier keine nennenswerten Schäden zu erwarten.

Im Jahr 2036 werden die Zähler des in Unix-Kreisen weit verbreiteten Zeitsynchronisations-Protokolls NTP (Network Time Protocol) überlaufen, was vor allem für eingebettete Systeme wie Router oder Messgeräte problematisch werden könnte. Diesem Problem wurde allerdings bereits weitestgehend durch moderne Implementierungen entgegengewirkt.

Fazit

Auch wenn es auf den ersten Blick erschreckend wirken mag, dass die Zeit so vieler Server und Rechner in der Wirtschaft auszulaufen droht, kann an dieser Stelle weitestgehend Entwarnung gegeben werden. Größere Ausfälle oder finanzielle Schäden sind nicht zu erwarten, da bereits Jahrzehnte im Voraus geplant wurde. Lediglich in einzelnen oder veralteten Systemen könnte es zu kleineren Problemen kommen.

Nicht nur das Jahr 2038 birgt PC-Probleme!

Auch wenn bis zum Jahr 2038 noch einige Jahre ins Land gehen werden, treten immer wieder (zum Glück meist weniger schwerwiegende) Probleme mit PCs, Laptops oder anderer Hardware auf. Sollten Sie ein solches Problem haben, wenden sie sich gerne vertrauensvoll an uns! Unsere zertifizierten IT-Spezialisten kümmern sich um alle Arten von PC-Problemen und bieten eine Reihe an Dienstleistungen an:

  • Hilfe bei Internetproblemen
  • Lösung von Hardwareproblemen aller Art
  • Datensicherungen
  • Softwareinstallationen
  • Fernwartung
  • Vor-Ort-Service

Kontaktieren Sie uns ganz einfach rund um die Uhr per:

  • Rufnummer 0176/ 75 19 18 18
  • E-Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!

Wir freuen uns auf Ihre Kontaktaufnahme!

Montag, 08 Juli 2019 14:36

Was ist Cloud-Computing? (Teil 2)

geschrieben von
 

Im ersten Teil unseres Artikels zum Thema Cloud-Computing haben wir bereits die verschiedenen Arten von Clouds und deren technische Realisierung gesprochen. Im heutigen Beitrag soll es um die Vor- und Nachteile und rechtliche Fragen, die bei der Nutzung solcher Dienste auftreten, gehen.

Rechtliches

Wie in unserem Artikel zum Thema Datensicherheit und Datenschutz näher erklärt, ist in rechtlicher Hinsicht zu beachten, dass ein vollständiger und den gesetzlichen Richtlinien entsprechender Datenschutz nur durch eine technisch vollständig erfüllte Datensicherheit erreicht werden kann.

Da in Deutschland (beziehungsweise allgemeiner in der Europäischen Union) ein weitaus strikterer Datenschutz gilt als es in den USA der Fall ist, ist der Datenschutz für Cloud-Dienstleister und deren Nutzer ein heikles und teils unübersichtliches Thema. Denn gut 90 % aller Cloud-Rechenzentren stehen in den Vereinigten Staaten.

Damit unterstehen die Dienstleister (wie zum Beispiel Google, Apple oder Amazon) dem amerikanischen Recht und damit dem sogenannten Patriot Act. Dieser besagt, dass die Firmen auch personenbezogene Daten an staatliche Behörden (beispielsweise die NSA) weitergeben müssen. Ein Datenschutz nach deutschem beziehungsweise europäischen Recht ist damit nicht gewährleistet und kann unter Umständen zu Bußgeldern für die Kunden von Cloud-Anbietern führen, wenn personenbezogene Daten der Nutzer über den Clouddienstleister an amerikanische Behörden weitergegeben werden.

Ebenfalls zu beachten ist das Urheberrecht beim Speichern von urheberrechtlich geschützten Medien in einer Cloud. Prinzipiell stellt dieses Speichern eine Vervielfältigung dar und ist damit rechtswidrig, solange die Erlaubnis des Urhebers nicht eingeholt wurde und die Daten nicht für rein private Nutzen gespeichert werden.

Um den genannten rechtlichen Problemen entgegenzutreten hat sich im Jahr 2010 die Institution cloud services made in Germany gegründet, die ihre Dienste in Einklang mit geltendem deutschen Recht anbieten. Diese umfassen nicht nur CRM-Systeme, sondern auch Lösungen für Zeiterfassung, Terminverwaltung oder Personaleinsatzplanung. Die Server dieser Anbieter stehen in Deutschland und es wird die DSGVO und das deutsche Datenschutzgesetz angewandt.

Vor- und Nachteile

Zu den großen Vorteilen des Cloud-Computings gehört sicherlich, dass sich die benötigte Hardware stark in Grenzen hält, da letztlich nur ein Endgerät von Nöten ist und nicht die gesamte Serverstruktur. Außerdem kann in den meisten Fällen von fast überall her über das Internet auf die Daten oder die Anwendungen in der Cloud zugegriffen werden – das zu jeder Tages- und Nachtzeit.

Einhergehend mit der Online-Speicherung geht auch die Sicherheit vor Datenverlust. Werden die Daten lokal gespeichert, besteht immer die Gefahr, dass die Daten bei einer Beschädigung des Speichermediums verloren gehen. Um dieses Manko auszugleichen müssten Konzepte zur Datensicherung und für Backups angewandt werden, welche bei einer Cloud-Lösung meistens vom Dienstleister mit angeboten werden. Man muss ich also auch um solche alltäglichen Probleme nicht kümmern.

Weiterhin sind bei den meisten Cloud-Lösungen keinerlei Softwareinstallationen auf dem lokalen Rechner nötig. Damit entfallen natürlich auch Wartungsarbeiten, Updates und dergleichen. Diese Dinge werden ebenfalls vom Dienstleister übernommen.

Ob sich eine Cloud für ein Unternehmen rentiert, ist ein Rechenspiel. Man muss die Kosten für den Dienstleister gegenüber dem Kauf (oder der Mietung) der Hardware abwägen und weiterhin beachten, dass auch Wartung und Instandhaltung nicht nur mit Arbeitskraft, sondern auch mit Arbeitszeit und damit Geld verbunden ist. Außerdem kann man sich bei einer Cloud-Lösung zumindest für diesen Bereich Personal einsparen.

Neben den großen Vorteilen gibt es aber auch eine Reihe an klaren Nachteilen, die nicht zu unterschätzen sind. So ist ganz grundlegend: Kein Internet, keine Arbeit. Sollte also die Internetverbindung unterbrochen sein, kann auch kein Zugriff auf die Cloud und damit auf die Dateien und die Anwendungen erfolgen. Seitens der Dienstanbieter wird in den allermeisten Fällen technisch für einen Stromausfall oder dergleichen vorgesorgt, doch hat der Kunde kein Internet, liegt die Arbeit unter Umständen brach.

Ein weiterer Nachteil in Bezug auf das Internet ist, dass der Kunde auch eine erhebliche Bandbreite benötigt, um die Daten und Anwendungen vernünftig nutzen zu können. Da selbst einfache Arbeiten wie das Erstellen einer PowerPoint-Präsentation über das Internet abgewickelt werden, wird der Kunde in hohem Maße vom Internetdienstleister abhängig.

Wie bereits erwähnt stehen die meisten Server von Cloudanbietern wie Amazon oder Google in den USA. Durch den sogenannten Patriot Act sind diese amerikanischen Firmen dazu verpflichtet, Daten ihrer Kunden an die US-Regierung weiterzugeben, selbst wenn diese auf Servern gespeichert sind, die gar nicht auf amerikanischem Territorium stehen. Das bedeutet, dass alle Daten, auf Hardware von amerikanischen Firmen gespeichert werden, an die amerikanische. Regierung weitergeleitet werden dürfen (nach amerikanischem Recht), selbst wenn der fragliche Server in Frankfurt oder München steht. Der Serverstandort ist also kein Garant dafür, dass das geltende Recht des Standortlandes auch angewandt wird. Inwieweit dies für Industriespionage ausgenutzt wird, bleibt den Kunden verborgen und gerade Firmenkunden sind gut beraten, sich dieser Tatsache bewusst zu sein.

Durch die dauerhafte Anbindung an externe Hardware über das Internet erhöht sich zwangsläufig auch die Gefahr durch Hackerangriffe und andere Angriffe über das Internet. Dieses Risiko erhöht sich in manchen Belangen unnötigerweise, da einige Anwendungen, die bei einer Cloud-Lösung über das Internet laufen, prinzipiell auch ohne diese Schnittstelle möglich wären.

Unterschiede zum Arbeiten offline – wann rentiert sich eine Cloud?

Gerade für kleine Unternehmen stellt sich an einem gewissen Punkt der Firmenentwicklung die Frage, ob sie auf eine Cloud-Lösung setzen oder doch eher „offline“ arbeiten wollen. Gerade wenn eine Firma bereits mehrere Standorte hat werden die Vorteile einer Cloudlösung immer schwerwiegender, da so die einzelnen Mitarbeiter unterschiedlicher Büros sehr leicht miteinander zusammenarbeiten können.

Hat die Firma allerdings nur einen Firmensitz, stellt sich die Frage, ob ein eigenes, lokales Severnetzwerk eventuell eine bessere Lösung darstellt. Man muss dabei immer abwägen, was die jeweiligen Anforderungen an ein Firmennetzwerk sind und welche Lösung am sinnvollsten ist. Geht es ausschließlich um den Austausch von Daten, ist ein eigener Server ratsam, sollen aber auch Softwareanwendungen dezentral (also nicht auf dem lokalen Rechner der Nutzer) verwendet werden, kommt man kaum um eine Cloud herum.

Fazit

Ob eine Cloud-Lösung für eine Firma (oder Privatpersonen) sinnvoll ist, muss die jeweilige Institution natürlich selbst abwägen. Kosten und Nutzen, Sicherheitsfragen, Abhängigkeiten und die dezentrale Abwicklung von Abläufen und Geschäften müssen überdacht und eventuell sogar angepasst werden. Trotz gewisser Risiken und Gefahren birgt eine Cloud-Lösung aber vor allem für kleine und mittelständische einige Vorteile, die mitunter wirtschaftlich entscheidend sein können.

Sie haben Probleme mit ihrer Cloud-Lösung? 

Als Münchner IT-Dienstleister sind wir auch Spzialisten für Cloud-Lösungen und bieten Problembehandlung für diesen Bereich an. Unsere qualifizierten IT-Spezialisten helfen Ihnen gerne bei Ihren Problemen weiter! Folgende Bereiche gehören zu unserem Leistungsportfolio:

  • Beratung und Einführung von Cloud-Lösungen 
  • Wartung und Support für ihre Cloudanwendung und -Infrastruktur
  • Konfiguration und Anpassungen bestehender und neuer Clouddienste
  • Cloud-Sicherheitslösungen zur Abwehr von Hacker- und DDOS-Attacken
  • Migration der bestehenden Systeme in eine Cloud-Lösung

Vereinbaren Sie mit uns unverbindlich ein erstes Beratungsgespräch. Gerne können Sie uns eine Anfrage per E-Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein! senden oder uns jederzeit unter der Rufnummer 0176 / 75 19 18 18 erreichen. Wir freuen uns auf Ihre Kontaktaufnahme!

Freitag, 05 Juli 2019 14:11

Was ist Cloud-Computing? (Teil 1)

geschrieben von

Über den Begriff Cloud stolpert man immer häufiger, vor allem, da mittlerweile so ziemlich jede Internetfirma eine eigene solche Plattform anbietet. Angefangen bei Google über Microsoft bis hin zu Amazon und Apple gibt es zig verschiedene Lösungen, mit denen man arbeiten kann. Aber was genau ist denn nun so eine Cloud? Welche Varianten gibt es? Wie funktionieren sie? Und ist es besser offline zu arbeiten oder doch lieber offline? Im ersten Teil dieser Artikelreihe klären wir zunächst, was eine Cloud ist, welche Typen es gibt, wie sie aufgebaut ist und welche Bedeutung sie in der heutigen Wirtschaftswelt hat.

Was ist eine Cloud?

Eine Cloud ist eine IT-Infrastruktur, die meist über das Internet angeboten wird und in der Speicherplatz, Rechenleistung und Anwendungen als Dienstleistung angeboten werden. Dies bedeutet aus technischer Sicht in erster Linie, dass die Arbeitsprozesse nicht an einem lokalen Rechner beim Anwender vor Ort ablaufen, sondern auf der Hardware des Anbieters. Somit entfallen für den Benutzer die Softwareinstallation und das verwendete Endgerät benötigt unter Umständen bei weitem weniger Rechenleistung und ist damit kostengünstiger.

Viele Anbieter (wie beispielsweise Google mit Google Drive) bieten für Privatnutzer in erster Linie Cloudspeicher an. Hiermit können persönliche Dateien wie Bilder, Dokumente oder Sounddateien in der Cloud gespeichert werden. Das Prinzip des Cloud-Computings geht allerdings weit über diese reine Speicherplatzauslagerung hinaus.

Google bietet beispielsweise die Möglichkeit an, die Dateien direkt im Browser (und damit ohne einen vorherigen Download) zu bearbeiten. Diese Webanwendungen bieten häufig ähnlich umfangreiche Möglichkeiten wie ihre auf dem Rechner installierten Pendants.

Im großen Maße dienen Clouds allerdings der Zusammenarbeit sehr vieler Menschen (zum Beispiel in einem Unternehmen), ohne dass jeder einzelne die Software auf seinem Rechner installiert haben muss.

Welche Arten von Clouds gibt es und was unterscheidet sie?

Nach der Definition des amerikanischen National Institute of Standards and Technology (NIST) gibt es drei verschiedene Servicemodelle und vier Liefermodelle.

Servicemodelle

  • Software as a Service (SaaS): Zugang zu Software-Sammlungen und Anwendungs-programmen. Der Dienstleister bietet die Software an, die dann auf seiner Infrastruktur ausgeführt wird. Diese Variante ist auch unter dem Namen Software on Demand
  • Platform as a Service (PaaS): Der Dienstleister bietet den Zugang zu einer Programmierungs- oder Laufzeitumgebung an, in der die Anwender eigene Software entwickeln und auf der Hardware des Anbieters ausführen können. Hierbei sind die bereitgestellten Rechen- bzw. Datenkapazitäten flexibel und dynamisch nach Bedarf anpassbar.
  • Infrastructure as a Service (IaaS): Der Anbieter stellt eine virtualisierte Computerhardware zur Verfügung. Der Nutzer gestaltet sein eigenes System frei und ist selbst für die Installation, den Betrieb, die Wartung und das fehlerlose Funktionieren der eigenen Software verantwortlich.

Liefermodelle

  • Public Cloud: Der Anbieter stellt eine abstrahierte IT-Infrastruktur für die breite Öffentlichkeit zur Verfügung. Die Kunden können diese Infrastruktur flexibel je nach Bedarf mieten und bezahlen nur die tatsächliche Nutzung.
  • Private Clouds: Cloud-Umgebung, die ausschließlich für eine Organisation (beispielsweise einer Firma) betrieben wird. Das Hosten und Verwalten dieser Cloud kann von der Organisation intern (zum Beispiel durch ein eigenes Rechenzentrum) oder durch Dritte erfolgen.
  • Hybrid Cloud: Eine Kombination aus Public Cloud und Private Cloud, die den Zugang zu einer abstrahierten IT-Infrastruktur je nach den Bedürfnissen der Nutzer anbietet.
  • Community Cloud: Ebenfalls eine Variante mit abstrahierter IT-Infrastruktur, allerdings für einen kleineren Nutzerkreis, beispielsweise die Behörden einer Stadt oder Universitäten.

Die Unterschiede zwischen den einzelnen Varianten der Clouds liegen also in erster Linie in der Art der Bereitstellung und der Art und Weise, wie die Dienste in Anspruch genommen, bezahlt und verwaltet werden können.

Technische Realisierung – Wie ist eine Cloud aufgebaut?

Die bereits weiter oben beschriebenen drei Servicemodelle des Cloud-Computing stellen gleichzeitig eine grundlegende Möglichkeit dar, eine Cloud technisch zu organisieren. Man muss sich eine Cloud also als dreiteilige Pyramide vorstellen, in der höhere Ebenen auf den unteren aufbauen, aber nicht unbedingt vorhanden sein müssen.

Bildschirmfoto 2019-07-05 um 14.28.12.png

So basiert jede Cloud selbstverständlich auf der Hardware-Infrastruktur (unterste Ebene). Ein Vorteil der Arbeit auf dieser Ebene ist, dass die Recheninstanzen je nach Anforderung mehr oder weniger beliebig skaliert oder um weitere Instanzen erweitert werden können. Dabei hat der Benutzer vollständigen Zugriff auf die verschiedenen Instanzen und ist ab der Ebene des Betriebssystems selbst dafür verantwortlich.

Die zweite Ebene der Cloud Pyramide besteht aus der Plattform. Der Unterschied zur Infrastruktur-Ebene liegt darin, dass der Nutzer keinen direkten Zugriff mehr auf die Recheninstanzen hat, sondern nur innerhalb des gesteckten Rahmens sämtliche Einheiten und Unterteilungen verwaltet. Daraus folgt, dass der Cloud-Dienstleister die tatsächlich arbeitenden Instanzen nach Belieben vergrößern oder erweitern kann. Für den Kunden ist diese Abstraktion der technischen Komponente von Vorteil, wenn die Benutzer der Cloud lediglich Daten verarbeiten und nicht die technische Basis an sich administrieren sollen.

Die oberste Ebene der Pyramide stellen die Anwendungen (also die Software) dar. Auf dieser Ebene muss sich der Nutzer weder um die technischen Komponenten noch um die Skalierbarkeit des Systems kümmern. In erster Linie dient diese Ebene der Anwendung von Software durch den jeweiligen Nutzer. Diese Form der Cloud ist die unter Privatanwendern am weitesten verbreitete. Bekannte Beispiele sind Google Drive, Microsoft OneDrive oder Apple iCloud.

Cloud-Computing in der Wirtschaft

Vor allem in der Wirtschaft ist das Cloud-Computing mittlerweile stark verankert. Sie bieten großen Unternehmen weitreichende Möglichkeiten sich zu vernetzen und ihre Arbeitsabläufe den heutigen Anforderungen anzupassen. In erster Linie spart man eine Menge Kosten ein, da lokal weitaus weniger Soft- und Hardware von Nöten sind, wenn man mit einer Cloud-Lösung arbeitet.

Ein weiterer Vorteil der abstrahierten Infrastruktur einer Cloud ist, dass man Leistungsspitzen durch das dynamische Hinzuschalten von Rechenleistung leichter ausgleichen kann als mit herkömmlichen Systemen, bei denen immer genug Kapazität vorhanden sein muss, selbst wenn diese gerade nicht benötigt wird. Dadurch, dass nicht durchgängig diese Infrastruktur bereitgehalten werden muss, kann ein Unternehmen enorme Kosten einsparen.

Problematisch bei Cloud-Anwendungen ist in erster Linie die Sicherheit der Daten bei der Übertragung über das Internet. Hier hat die Weiterentwicklung der Verschlüsselungstechnologie, Probleme behoben, allerdings bestehen nach wie vor Risiken. Weiterhin ist zu beachten, dass es in vielen Fällen keine eindeutige Lösung für den Fall gibt, dass der Cloud-Anbieter oder ein beteiligter Dienstleister insolvent gehen. Was passiert dann mit den Daten? Sind sie verloren oder können sie noch gesichert werden? Manche Dienstleister bieten für solch einen Fall bereits eine Datenrücksicherung an.

Ein anderer großer, wenn auch nicht technischer, Nachteil ist, dass sich ein Unternehmen mit der Nutzung einer Cloud von dessen Anbieter abhängig macht. Nicht nur die bereits erwähnte Frage, was bei einer Insolvenz eines Anbieters geschieht, sondern auch die Tatsache, dass die Softwarehersteller durch die Endbenutzer-Lizenzvereinbarungen die Zugangsberechtigung zur Software jederzeit entziehen können. Dadurch sind die Kunden diesen Unternehmen schutzlos ausgeliefert. Solch ein Fall wurde beispielsweise 2018 publik, als Adobe kurzerhand die Lizenzen älterer Software aus ihrer Cloud als ungültig erklärte und mit rechtlichen Maßnahmen drohte, sollte man die Software weiterhin verwenden.

Im zweiten Teil dieses Artikels gehen wir näher auf rechtliche Fragen, die Vor- und Nachteile von Cloud-Computing ein und vergleichen diese moderne Arbeitsform mit der klassischen Arbeit „offline“.

Sie suchen einen zuverlässigen IT-Spezialisten für Cloud-Computing? 

Als IT-Dienstleister in München bieten wir Ihnen eine Top-Beratung im Bereich Cloudanwendungen und -computing an. Wir helfen Ihnen ihre eigene Cloud-Infrastruktur aufzubauen, zu erneuern, erweitern oder zu warten. Gerne besprechen wir mit Ihnen die Unternehmenslösungen die für sie in Frage kommen. Folgende Bereiche gehören zu unserem Leistungsportfolio:

  • Beratung und Einführung von Cloud-Lösungen 
  • Wartung und Support für ihre Cloudanwendung und -Infrastruktur
  • Konfiguration und Anpassungen bestehender und neuer Clouddienste
  • Cloud-Sicherheitslösungen zur Abwehr von Hacker- und DDOS-Attacken
  • Migration der bestehenden Systeme in eine Cloud-Lösung

Vereinbaren Sie mit uns unverbindlich ein erstes Beratungsgespräch. Gerne können Sie uns eine Anfrage per E-Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein! senden oder uns jederzeit unter der Rufnummer 0176 / 75 19 18 18 erreichen. Wir freuen uns auf Ihre Kontaktaufnahme!

Unsere Rufnummer

 

PC-Hilfe Support

0176 75 19 18 18

Kostenfreie Erstberatung

Im Archiv durchstöbern

Suche - News Artikel
Suche - Kategorien
Suche - Kontakte
Suche - Seiteninhalt
Suche - Newsfeeds
Suche - Weblinks
Suche - Schlagwörter

Das sagen unsere Kunden

Bild ist nicht verfügbar

++ Bester Computer-Service ++ Alle meine Probleme wurden hervorragend gelöst, ich bin begeistert und komme gerne wieder

++ Bester Computer-Service ++ Alle meine Probleme wurden hervorragend gelöst, ich bin begeistert und komme gerne wieder " Ayse

Bild ist nicht verfügbar

++ Bester Computer-Service ++ Alle meine Probleme wurden hervorragend gelöst, ich bin begeistert und komme gerne wieder

Problem schnell und zuverlässig gelöst. Sehr freundlicher und lobenswerter Service " Peter

Bild ist nicht verfügbar

++ Bester Computer-Service ++ Alle meine Probleme wurden hervorragend gelöst, ich bin begeistert und komme gerne wieder

Auch für Senioren geeignet. Super verständlich und einfach das Problem erklärt. Klare Empfehlung! " Gertrud

previous arrow
next arrow
Slider

Drei einfache und schnelle Schritte zur PC-Hilfe