Monat: März 2019

apple

IOS 9 mit Schluckauf

Wenn es um Apple-Produkte geht, dann sind unsere Erwartungen hoch. Kein Wunder: Sie kosten sie weit mehr als die Windows-Erzeugnisse. Apple besticht vor allem durch zwei Dinge, langlebige Hardware und kinderleicht zu bedienende Software. Beides war zu Zeiten von Steve Jobs gewährleistet.

Heutzutage mehren sich Stimmen, die zweifeln, ob die Nachfolger des Apple-Gurus tatsächlich den Ruf bewahren können. IOS 9, das Betriebssystem für iPhones, iPads und iPods Touch, ist ein Beispiel dafür. Obwohl es positive Neuerungen einführt, ist auch die Liste der Glitches lang. Das beweist, dass die Leute von Apple auch nur mit Wasser kochen und die Peitsche ihres einstigen Zuchtherren Steve Jobs zu fehlen scheint.

Hier sind die gängigen Glitches von IOS 9

1. Gerät läuft langsam, alles verzögert sich

Das größte Problem war kurz nach dem Veröffentlichen das Updates, dass IOS 9 nicht wenige iPhones völlig unbenutzbar gemacht hat. Apple erklärte das mit einer Überlastung der Servers, die dazu führte, dass zahlreiche Updates stecken blieben. Allerdings gibt es immer noch Klagen, dass Geräte nach dem Update sehr langsam laufen. In diesem Fall empfiehlt sich ein Neustart. Wer ein älteres Gerät besitzt, kann versuchen, ein paar Funktionen abzuschalten, zum Beispiel in Einstellungen/Allgemein unter Bedienungshilfen Bewegung reduzieren. Wenn weiter Sand im Getriebe ist, kann man nur auf das nächste Update hoffen.

2. WLAN funktioniert nicht

Mit dem WLAN und dem mobilen Netz gibt es viele Probleme bei IOS 9. Der WLAN-Assist soll dafür sorgen, dass ein Gerät immer das beste Netz auswählt. Die Theorie scheint hier besser zu funktionieren als die Praxis. Falls man das Gerät nicht in das WLAN einklinken kann, sollte man zuerst versuchen, den WLAN Assist abzuschalten (Einstellungen/Mobiles Netz/WLAN Assist). Manchmal hilft es auch, ganz einfach Mobiles Netz ab- und wieder anzuschalten. Dazwischen sollte man mindestens 30 Sekunden verstreichen lassen.

Bei den WLAN Einstellungen kann man probieren, zunächst einmal das WLAN ab- und wieder anzuschalten. Manchmal hilft es auch, vorübergehend den Flugmodus anzutippen. Wenn gar nichts mehr geht in Sachen WLAN, empfiehlt es sich, die gesamten Einstellungen zu löschen und von vorn anzufangen. Dafür braucht man alle Passwörter für die benutzten Netzwerke. (Die beste Methode, Passwörter zu bewahren, ist altmodisch auf einem Stück Papier an einem sicheren Ort.)

Die Radikalkur beginnt mit Einstellungen, gefolgt von Allgemein, Zurücksetzen, alle Einstellungen zurücksetzen.

3. Screen bleibt stecken

Ein eingefrorener Bildschirm kann manchmal behoben werden, indem man das Gerät an ein Mac-Book oder einen großen Mac anschließt. Falls das nichts hilft, sollte Ab- und Anschalten über den Start-Knopf das Problem lösen.

4. Gamecenter mag nicht

Das Gamecenter funktioniert bei einigen Nutzern überhaupt nicht mehr nach dem Upgrade. Hier hilft es im Moment nur, auf ein Update zu warten, weil die Frist zur Rückkehr zu IOS 8.4.1 verstrichen ist.

5. Bluetooth Probleme

Wenn es mit dem Bluetooth Probleme gibt, sollte man versuchen, alle Geräte in den Einstellungen neu anzuschließen. Manchmal hilft auch ein Reboot. Wenn alles nichts fruchtet, dann empfiehlt sich die oben beschriebene Radikalkur. Datensicherung sollte man nicht vergessen.

Darum ist das regelmäßige Ändern des Passworts keine gute Idee

Wenn es um die Thematik Passwort geht, dann findet man vor allem im Internet viele Tipps dazu. Der wohl weitverbreitetste Ratschlag ist, dass man sein Passwort regelmäßig ändern sollte. Als Privatverbraucher liegt einem die Entscheidung frei in der Hand, es besteht also keine Pflicht den Rat zu befolgen.

Bei Unternehmen sieht es schon anders aus, denn in manchen Fällen schreibt einem der Chef diesen Prozess vor. Es kann zum Beispiel heißen, dass jeder Mitarbeiter alle 60 oder 90 Tage sein Kennwort ändern muss. Auf dem ersten Blick eine sichere und vernünftige Sache, doch spätestens beim zweiten Blick kommen dann auch die Schattenseiten zum Vorschein. Es kennt sie zwar fast niemand, doch sie gibt es tatsächlich.

Die unsichere Wahl

Der erste Faktor ist die Qualität des Passworts. Wer bereits von Anfang an über die regelmäßige Änderung weiß, der nimmt in der Regel von Haus aus ein vergleichsweise „einfaches“ Passwort. Natürlich erfüllt es die Anforderungen wie Sonderzeichen oder Zahlen, doch auch unter diesen Voraussetzungen kann man zwischen einem „einfachen“ und schweren Kennwort wählen. Ein negatives Beispiel wäre „123@Aa“, es würde zwar den Regeln entsprechen, doch sicher ist es dennoch nicht. In so einem Fall steht nicht die Sicherheit, sondern das einfache Merken im Vordergrund. Klüger wäre ein Passwort wie „!i(0hKm(@1Kl-“. Das Problem ist also, dass das Kennwort von Haus aus schon nicht so sicher ist, wie es eigentlich sein sollte. Für Angreifer nicht unbedingt ein Nachteil.

Minimale Änderungen

Beim zweiten Faktor geht es um die Änderung. Die Mehrheit verwendet nämlich keine vollständig neue Kombination, sondern es werden lediglich minimale Unterschiede integriert. Beispielsweise wird die letzte Zahl um den nächsthöheren Wert ersetzt, oder aber man fügt einfach einen Buchstaben hinzu. Auch hier spielt die Sicherheit nur eine Nebenrolle, denn solch minimale Veränderungen haben nur geringe Auswirkungen. Professionelle Angreifer haben mit beiden Varianten keine Probleme, lediglich der Zeitaufwand erhöht sich ein wenig. Entscheidet man sich also nicht für eine ganz neue Kombination, dann ist man auch nicht besser geschützt als zuvor.

Der Zeitaufwand

Faktor Nummer drei ist auf die Zeit zurückzuführen. Private Nutzer müssen meist nur auf einem oder auf zwei Geräten das Kennwort aktualisieren, Mitarbeiter eines Unternehmens sind hingegen über mehrere Wege unterwegs. Hier sind in erster Linie der PC im Büro, der Laptop, das Smartphone und das Tablet zu nennen. Steht also eine solche Aktion an, dann nimmt das Ganze auch Zeit in Anspruch. Es sind zwar keine Stunden, doch zusammengerechnet kommt trotzdem ein meist nicht gedachter Wert zustande.

Die bessere Lösung

Das regelmäßige Ändern des Passworts macht nur dann Sinn, wenn man auch tatsächlich jedes Mal eine komplett neue Kombination nimmt (die auch schwierig und kompliziert ist). In den meisten Fällen ist aber genau das nicht so, sodass die Wirkung ganz klar verfehlt wird. Die vernünftigere Lösung ist deshalb, dass man von Beginn an ein „richtiges“ Kennwort nimmt und dieses dafür nur 1 Mal im Jahr durch ein ganz neues ersetzt. Der Clou ist nämlich: Entscheidend für die Sicherheit ist nicht die Anzahl der Änderungen, sondern wie stark das Passwort ist. Wird es dann auch nur minimal abgeändert, dann bleibt der Schutz im Großen und Ganzen gleich.

facebook

Facebooks neuester Datenschutzfehler

Facebooks Probleme mit den Datenschutzfehlern wurden schlimmer, als kürzlich bekannt wurde, dass nicht weniger als 14 Millionen Facebook-Nutzer Inhalte ihrer Artikel unwissentlich öffentlich gepostet hatten, die eigentlich nur Freunde oder kleinere Gruppen sehen sollten.

Was ist passiert?

Facebook macht einen Softwarefehler für die automatische Änderung einer wichtigen Datenschutzeinstellung verantwortlich, die bestimmt, wer welche Beiträge von Benutzern sehen kann. Diese Einstellung ist „sticky“. Das bedeutet, dass es von Post zu Post konsistent bleibt, es sei denn, sie wird manuell geändert. Wer einen Beitrag ausschließlich mit den Facebook „Freunden“ teilen will, bekommt alle zukünftigen Beiträge für diese Gruppe angezeigt, es sei denn, die Einstellung wird vom Benutzer aktualisiert. Facebook sagt, dass ein Software-Glitch diese Einstellung für 14 Millionen Benutzer ohne jede Warnung auf „öffentlich“ änderte. So haben Facebook User unter dem Eindruck Artikel veröffentlicht, diese nur mit einer kleinen Gruppe von Benutzern teilten, unwissentlich mit allen geteilt.

Warum spielt es eine Rolle?

Eines der wichtigsten Versprechen von Facebook an die Nutzer ist, dass sie kontrollieren können, wer ihre Inhalt sieht. Ein Fehler wie dieser untergräbt dieses Versprechen und das Vertrauen, welches kürzlich bereits ein großes Problem bei Facebooks „Cambridge Analytica“ Datenschutzdebakel war.

Warum passiert das?

Es scheint, dass es bald wöchentlich vermeidbare Fehler bei Facebook gibt. Und es wird wahrscheinlich nicht das letzte Privacy Problem von Facebook in diesem Jahr sein. Besonders, weil das soziale Netzwerk derzeit unter dem Mikroskop der Datenschützer liegt und so auch Kleinigkeiten auffallen. Da die privaten Daten, die praktisch in jedem Element von Facebook enthalten sind, von Profilen über private Nachrichten bis hin zu gezielter Werbung, wird, wenn etwas schiefgeht, immer die Privatsphäre der Benutzer betroffen sein.

cloud-computing

Die Private Cloud

Die Technologie des Cloud-Hostings ist auf dem Vormarsch und führt zu stabileren und robusteren Plattformen bei ihren Softwarelösungen. In der Vergangenheit speicherte ein entfernter Server seine Daten auf einer virtualisierten Plattform, auf die berechtigte Benutzer zugreifen konnten. Der nächste Schritt, Daten in eine Cloud auszulagern, bietet einem Unternehmen vereinfachten Zugriff für mehr Nutzer.

Mit der Zeit fand die Idee des Cloud-Hostings größeren Anklang und es entstanden verschiedene neue Klassifizierungen der Cloud-Umgebung. Eine Private Cloud ist eine dieser Klassifizierungen, die dazu dient, Daten in einer kontrollierten zentralen Umgebungen zu sichern. Ihr Zweck ist, durch verbesserte Sicherheit und höhere Flexibilität dem Anwender überzeugende Vorteile zu bieten, um Komplikationen im Zusammenhang mit dem Server-Management zu umgehen. Viele Unternehmen haben mittlerweile erkannt, dass mit wenig Zeitaufwand, Mühe und Kosten eine maßgeschneiderte Lösung für die Auslagerung der Daten in einer Private Cloud zu finden ist.

Private Clouds werden in zwei Kategorien eingeteilt. Gehostete private Cloud-Lösungen und Server-Parks, die sich vor Ort beim Unternehmen befinden.

Ein Beispiel einer gehosteten Private-Cloud-Lösung

Wer heute beispielsweise bei Google nach Möglichkeiten sucht, um die optimale Cloud-Umgebung für sein Unternehmen zu finden, erhält eine kaum überschaubare Liste von verwalteten Hosting-Lösungen. Diese bestehen in der Regel aus gehosteten privaten Cloud-Lösungen, unabhängig davon, ob ein Cloud-Anbieter die Server in seinen eigenen Rechenzentren verwaltet oder selbst bei einem dritten Anbieter gemietet hat.

Die Vorteile des Hostings eines Servers einer gehosteten Private-Cloud-Lösung sind vielfältig. Im Fall der gehosteten Private-Cloud-Lösung unterliegt das Sicherheitsmanagement in der Verantwortung des vermittelnden Drittanbieters. Bei einer Cloud-Infrastruktur muss der Kunden allerdings in Sicherheits- und Kontrollpraktiken investieren, um seinen Service bereitstellen zu können. Er erhält zudem zusätzliche Ressourcen, hohe Skalierbarkeit, ein benutzerfreundliches Dashboard und technischen Support, um eine zuverlässige Serververwaltung zu gewährleisten. Ein weiterer Vorteil ist, dass der Anwender viele private Cloud-Dienste zusammen mit verschiedenen Cloud-Service-Providern zu einem niedrigen Preis in Anspruch nehmen kann. Dabei spart er Kosten für den Kauf von Hardware, Personaleinsatz und Energie, die für die Verwaltung und Wartung des eigenen Servers andernfalls anfielen.

cyberspace

Direct Attached Storage (DAS)

Als DAS “Direct Attached Storage” werden Festplatten bezeichnet, die direkt via USB, SATA, FireWire oder ähnliches an einen Server angeschlossen sind. Man bezeichnet ein DAS auch als Block-Level Storage, da der Datenaustausch blockbasiert geschieht. Die Datenblöcke werden durch den Rechner von einer Festplatte ange¬fordert, Beispiel: “Block 5003 von Festplatte 2”.
Der Server kontrolliert dabei diese Zugriffe auf das Spei¬chersystem und kümmert sich um die Verwaltung der Benutzerrichtlinien und Freigabeberechti¬gungen.

Probleme

Bei einem DAS-System existiert keine hohe Ausfallsicherheit. Wenn es zu einem Ausfall des Servers kommen sollte oder gar einem Defekt der Festplatte, steht der Speicherplatz mit all den darin befindlichen Daten nicht mehr zur Verfügung. Zudem müssen die Daten dann erst mit Hilfe eines Backups wieder hergestellt werden, was einen hohen Aufwand verursacht.

Lösungen

Das Problem des Serverausfalls kann durch den Einsatz eines zweiten Servers behoben werden. Dieser gleicht dann seine Daten mit dem anderen Server ab, so dass wenn ein Server ausfällt die Daten weiterhin verfügbar sind. Diese Variante verbessert zu dem die Performance und Ausfallsicherheit des Systems.
Der Defekt oder Ausfall einer einzelnen Festplatte kann mit dem Einsatz einer RAID1-Funktion unschädlich gemacht werden. RAID1 sorgt dafür, dass zwei Festplatten gespiegelt werden und somit auf beiden Festplatten die gleichen Daten vorhanden sind. Fällt nun eine Festplatte aus, stehen immer noch alle Daten im Netzwerk zur Verfügung.

Storage Area Network (SAN)

Definition

In einem Datenspeichernetzwerk, dem SAN, können große Datenmengen gespeichert und bewegt werden. Man bezeichnet das Storage Area Network (SAN) auch als eine Erweiterung von Direct Attached Storage (DAS). Der wesentliche Unterschied zwischen einem DAS und einem SAN liegt darin, dass beim DAS eine Punkt-zu-Punkt-Verbindung zwischen dem Datenspeicher und einem Server herrscht und beim SAN werden mehrere Server über ein Netzwerk an mehrere Datenspeicher angebunden. Das SAN wurde entwickelt, um den geringen Verwaltungsmöglichkeiten der Festplatten von beispielsweise NAS-Systemen, entgegen-zuwirken. Die Verwaltung im SAN ist wesentlich umfangreicher und komplexer. Dies wird aber im Folgenden noch näher beschrieben.
Der gesamte Speicher in einem SAN wird unabhängig vom Standort und Betriebssystem zentral verwaltet. Der Speicher wird dabei zu virtuellen Einheiten zusammengefasst.

Funktionsweise

Speicherzentriert

Einen Zugriff auf den Speicher bekommt man nur über die Server, welche für die Verwaltung der einzelnen Datenspeicher zuständig sind. Die Speicher müssen jedoch nicht am gleichen Ort sein, wie der Server, da sie so oder so über das Netzwerk mit den Servern verbunden sind. Einzelne Festplatten der verschiedenen Server werden zu wenigen logischen, virtuellen Gesamtspeichern zusammengefasst. Diese können von allen Servern über das Speichernetzwerk gemeinsam genutzt werden. Der gesamte Speicherplatz ist nun als ein eigener Speicherblock zu sehen, welcher nun nicht mehr auf verschiedenen Servern verteilt ist.

Beispiel: Server1 = 1TB; Server2 = 3TB; Server3 = 2,5 TB.

Serverzentriert

Die Server kümmern sich um alle Verwaltungsaufgaben, wie die flexible Speicher-platzverteilung, die Zusammenfassung der Datenspeicher zu virtuellen Gesamtspeichern, sowie die Verwaltung der Benutzerrichtlinien und die Zugriffs- und Freigabeberechtigungen. Als Kommunikationsprotokoll zwischen den Servern und den Datenspeichern wird in der Regel SCSI verwendet, das die Transportprotokolle Fibre Channel (FC) oder iSCSI nutzt. Clients, die auf den freigegebenen Speicher zugreifen wollen, bekommen von der Speicherverwaltung nichts mit und haben dauerhaft Zugriff auf die Daten.

Aufbau

Mehrere Festplattensysteme werden an einen Glasfaser-Switch angeschlossen, welcher wiederum mit den jeweiligen Servern per Glasfaser verbunden ist. Dieser Verbund bildet ein einfaches Storage Area Network. An den Servern wird dann ein weiterer Switch angeschlossen, der die Verbindung zum LAN (Local Area Network) herstellt. An diesem Switch werden dann auch alle Clients angeschlossen. Somit wird die Speicherverwaltung durch die Server geregelt und die Clients können über die Server, auf den freigegebenen Speicher zugreifen.

Übertragungsrate

Standardmäßig ist eine Übertragungsrate von bis zu 16 GBit/s möglich. Da aber ein spezielles, für die Massenspeichernutzung angepasstes Protokoll verwendet wird, können Übertragungs-raten von bis zu 1,6 GB/s erreicht werden.

Vorteile eines SAN-Systems

● Jeder Server kann auf jedes Datenlaufwerk zugreifen und somit verwalten
● Cluster-Anwendungen sind möglich
● Hochverfügbarkeit: Redundanz und Ausfallsicherheit
● Virtualisierung: Zusammenfassung der Festplatten in logische, virtuelle Einheiten

Server

Speichernetzwerke – NAS, DAS, SAN

Unter Speichernetzwerken versteht man einen Zusammenschluss von mehreren, gleichen Speichermedien. In unseren Fall, die Festplatten. Oft werden diese Speichersysteme über Breitbandnetze wie zum Beispiel Fibre-Channel (Glasfaser), mit Servern verbunden. Man spricht von Speichernetzwerken. Dabei ist darauf zu achten, dass alle Hosts permanenten Zugriff auf alle Massenspeicher haben. Außerdem muss eine Datenausfallsicherheit und ständiger Lastaustausch zwischen den verfügbaren Sicherungsgeräten gewährleistet sein.

Im Folgenden werden verschiedene Speichernetzwerke ausführlich beschrieben:

“Network Attached Storage”, “Direct Attached Storage” und “Storage Area Network”.

Network Attached Storage (NAS)

Definition

Als NAS “Network Attached Storage” bezeichnet man einen Datenspeicher, welcher direkt mit dem LAN (Local Area Network) verbunden ist. Jedoch ist dies die kleinste Variante eines NAS-Systems. Interessant wird es erst, wenn das System eine eigene CPU und einen eigenen Arbeits¬speicher besitzt, sowie einen Zusammenschluss von mehreren Festplatten zu einer eigenständigen Einheit bietet. Dabei wird das NAS aber nicht über entsprech¬ende Schnittstellen an einen Server angeschlossen, sondern direkt mit dem Netzwerk verbunden. NAS-Systeme sind konfigurierbare Datenspeicher mit eigenem Betriebssystem und stellen großen Speicherplatz, insbesondere als Backup-Lösung, in einem Netzwerk zur Verfügung.

Funktionsweise

Wie schon zuvor beschrieben, werden in einem NAS-System mehrere Festplatten als Einheit zusammengefasst. Dieser Verbund wird meist mit einem der verschiedenen RAID (Redundant Array of Independent Disks) -Verfahren gelöst. Bei einem RAID1 werden beispielsweise mindestens 2 Festplatten gespiegelt, das heißt, dass auf einer Festplatte genau die gleichen Daten, wie auf der anderen vorhanden sind. Falls nun eine von beiden Festplatten ausfällt, besteht kein Grund zur Sorge, denn es sind noch alle Daten auf der anderen Festplatte vorhanden. Es ist außerdem wichtig zu sagen, dass von allen gängigen Betriebssystemen aus, auf das NAS zugegriffen werden kann, sei es Windows, MacOS, Linux, usw.
Für die Funktion des Filesharings (dt.: Datenaustausch / Datenbereitstellung) werden Protokolle wie Network File System (NFS), Common Internet File System (CIFS) und das Hypertext Transfer Protocol (HTTP) eingesetzt.

Vorteile von NAS-Systemen

Einfache Installation und Einrichtung

Für die Installation ist es ausreichend, das NAS-System am Strom und per Netzwerkkabel an das LAN (Local Area Network) anzuschließen. Zudem ist die Eingabe einer IP-Adresse notwendig. Alle weiteren Einstellungen werden im lokalen Netzwerk über ein so genanntes Webinterface des NAS getätigt. Diese Einstellungen sind meist selbst erklärend.

Hohe Zuverlässigkeit

NAS-Systeme bieten durch ihre redundanten Sicherheitsfunktionen eine hohe Ausfallsicherheit. Festplatten können mit Hilfe der RAID-Funktion während des Betriebs (on-the-fly) ausgetauscht werden, wie auch die Lüfter und Stromversorgung (da redundant vorhanden). Somit bleiben alle Daten durchgehend im Netzwerk verfügbar.

Einfaches Backup

Durch ein am NAS-System angeschlossenes Bandlaufwerk muss man sich keine Sorgen mehr über die Datensicherung machen. Die Daten werden jeweils zu einer festgelegten Zeit, im laufenden Betrieb, auf das Band kopiert und somit gesichert. Meist werden diese Bänder einmal am Tag gewechselt. Ein weiterer Vorteil ist, dass dabei die Netzwerkressourcen nicht belastet werden. Zudem ist der Verwaltungsaufwand für das Backup sehr gering.

Kostengünstig

Da auf NAS-Systemen meist Open Source Betriebssysteme wie Linux oder Unix betrieben werden, fallen nur geringe bis gar keine Lizenzkosten an. Durch die oben beschriebene, einfache Installation, werden zusätzliche Bereitstellungskosten gespart.