Kategorie: Technik

Wie durch die Pandemie die Digitalisierung vorangetrieben wird

Die Corona-Pandemie bringt auch Vorteile mit sich. Das mag sich zwar zynisch anhören, ist es aber mitnichten. Die Krise zwingt die Länder zu einem Umdenken in bisher unbekanntem Ausmaß. Das wirkt sich insbesondere auf die Digitalisierung aus, denn in vielen Ländern bekommt sie durch die Pandemie einen gehörigen Schub.

Die Corona-Pandemie hat alle zu einem Umdenken veranlasst. Die Digitalisierung bekommt dadurch einen gewaltigen Schub. Viele Unternehmen sind zum Homeoffice übergegangen und haben die Vorteile daraus für sich erkannt. Manche Konzerne wollen sogar das Homeoffice auch nach der Pandemie beibehalten um die Kosten für das Büro zu sparen. In Schulen wird der Unterricht teilweise auch digital abgehalten und Konferenzen finden online statt.

Es gibt sogar Länder, die auf Kontaktverbote oder Schließungen von Geschäften und Lokalen verzichten und trotzdem durch die Krise kommen weiß allvideoslots.com/fi/. Doch der Hauptgewinner der Krise ist die Digitalisierung. Vermehrt geben die Regierungen den Ausbau des 5G-Netzes in Auftrag, denn darauf wird in Zukunft nicht verzichtet werden können. Durch die Digitalisierung wird sich die Arbeitswelt, die wir heute noch kennen, total verändern. Vieles wird vom heimischen Schreibtisch aus erledigt werden können und andere Bereiche werden folgen. Brauchten wir erst eine Pandemie, um die Vorteile der Digitalisierung zu erkennen? Hier ein Vergleich.

apple

IOS 9 mit Schluckauf

Wenn es um Apple-Produkte geht, dann sind unsere Erwartungen hoch. Kein Wunder: Sie kosten sie weit mehr als die Windows-Erzeugnisse. Apple besticht vor allem durch zwei Dinge, langlebige Hardware und kinderleicht zu bedienende Software. Beides war zu Zeiten von Steve Jobs gewährleistet.

Heutzutage mehren sich Stimmen, die zweifeln, ob die Nachfolger des Apple-Gurus tatsächlich den Ruf bewahren können. IOS 9, das Betriebssystem für iPhones, iPads und iPods Touch, ist ein Beispiel dafür. Obwohl es positive Neuerungen einführt, ist auch die Liste der Glitches lang. Das beweist, dass die Leute von Apple auch nur mit Wasser kochen und die Peitsche ihres einstigen Zuchtherren Steve Jobs zu fehlen scheint.

Hier sind die gängigen Glitches von IOS 9

1. Gerät läuft langsam, alles verzögert sich

Das größte Problem war kurz nach dem Veröffentlichen das Updates, dass IOS 9 nicht wenige iPhones völlig unbenutzbar gemacht hat. Apple erklärte das mit einer Überlastung der Servers, die dazu führte, dass zahlreiche Updates stecken blieben. Allerdings gibt es immer noch Klagen, dass Geräte nach dem Update sehr langsam laufen. In diesem Fall empfiehlt sich ein Neustart. Wer ein älteres Gerät besitzt, kann versuchen, ein paar Funktionen abzuschalten, zum Beispiel in Einstellungen/Allgemein unter Bedienungshilfen Bewegung reduzieren. Wenn weiter Sand im Getriebe ist, kann man nur auf das nächste Update hoffen.

2. WLAN funktioniert nicht

Mit dem WLAN und dem mobilen Netz gibt es viele Probleme bei IOS 9. Der WLAN-Assist soll dafür sorgen, dass ein Gerät immer das beste Netz auswählt. Die Theorie scheint hier besser zu funktionieren als die Praxis. Falls man das Gerät nicht in das WLAN einklinken kann, sollte man zuerst versuchen, den WLAN Assist abzuschalten (Einstellungen/Mobiles Netz/WLAN Assist). Manchmal hilft es auch, ganz einfach Mobiles Netz ab- und wieder anzuschalten. Dazwischen sollte man mindestens 30 Sekunden verstreichen lassen.

Bei den WLAN Einstellungen kann man probieren, zunächst einmal das WLAN ab- und wieder anzuschalten. Manchmal hilft es auch, vorübergehend den Flugmodus anzutippen. Wenn gar nichts mehr geht in Sachen WLAN, empfiehlt es sich, die gesamten Einstellungen zu löschen und von vorn anzufangen. Dafür braucht man alle Passwörter für die benutzten Netzwerke. (Die beste Methode, Passwörter zu bewahren, ist altmodisch auf einem Stück Papier an einem sicheren Ort.)

Die Radikalkur beginnt mit Einstellungen, gefolgt von Allgemein, Zurücksetzen, alle Einstellungen zurücksetzen.

3. Screen bleibt stecken

Ein eingefrorener Bildschirm kann manchmal behoben werden, indem man das Gerät an ein Mac-Book oder einen großen Mac anschließt. Falls das nichts hilft, sollte Ab- und Anschalten über den Start-Knopf das Problem lösen.

4. Gamecenter mag nicht

Das Gamecenter funktioniert bei einigen Nutzern überhaupt nicht mehr nach dem Upgrade. Hier hilft es im Moment nur, auf ein Update zu warten, weil die Frist zur Rückkehr zu IOS 8.4.1 verstrichen ist.

5. Bluetooth Probleme

Wenn es mit dem Bluetooth Probleme gibt, sollte man versuchen, alle Geräte in den Einstellungen neu anzuschließen. Manchmal hilft auch ein Reboot. Wenn alles nichts fruchtet, dann empfiehlt sich die oben beschriebene Radikalkur. Datensicherung sollte man nicht vergessen.

Darum ist das regelmäßige Ändern des Passworts keine gute Idee

Wenn es um die Thematik Passwort geht, dann findet man vor allem im Internet viele Tipps dazu. Der wohl weitverbreitetste Ratschlag ist, dass man sein Passwort regelmäßig ändern sollte. Als Privatverbraucher liegt einem die Entscheidung frei in der Hand, es besteht also keine Pflicht den Rat zu befolgen.

Bei Unternehmen sieht es schon anders aus, denn in manchen Fällen schreibt einem der Chef diesen Prozess vor. Es kann zum Beispiel heißen, dass jeder Mitarbeiter alle 60 oder 90 Tage sein Kennwort ändern muss. Auf dem ersten Blick eine sichere und vernünftige Sache, doch spätestens beim zweiten Blick kommen dann auch die Schattenseiten zum Vorschein. Es kennt sie zwar fast niemand, doch sie gibt es tatsächlich.

Die unsichere Wahl

Der erste Faktor ist die Qualität des Passworts. Wer bereits von Anfang an über die regelmäßige Änderung weiß, der nimmt in der Regel von Haus aus ein vergleichsweise „einfaches“ Passwort. Natürlich erfüllt es die Anforderungen wie Sonderzeichen oder Zahlen, doch auch unter diesen Voraussetzungen kann man zwischen einem „einfachen“ und schweren Kennwort wählen. Ein negatives Beispiel wäre „123@Aa“, es würde zwar den Regeln entsprechen, doch sicher ist es dennoch nicht. In so einem Fall steht nicht die Sicherheit, sondern das einfache Merken im Vordergrund. Klüger wäre ein Passwort wie „!i(0hKm(@1Kl-“. Das Problem ist also, dass das Kennwort von Haus aus schon nicht so sicher ist, wie es eigentlich sein sollte. Für Angreifer nicht unbedingt ein Nachteil.

Minimale Änderungen

Beim zweiten Faktor geht es um die Änderung. Die Mehrheit verwendet nämlich keine vollständig neue Kombination, sondern es werden lediglich minimale Unterschiede integriert. Beispielsweise wird die letzte Zahl um den nächsthöheren Wert ersetzt, oder aber man fügt einfach einen Buchstaben hinzu. Auch hier spielt die Sicherheit nur eine Nebenrolle, denn solch minimale Veränderungen haben nur geringe Auswirkungen. Professionelle Angreifer haben mit beiden Varianten keine Probleme, lediglich der Zeitaufwand erhöht sich ein wenig. Entscheidet man sich also nicht für eine ganz neue Kombination, dann ist man auch nicht besser geschützt als zuvor.

Der Zeitaufwand

Faktor Nummer drei ist auf die Zeit zurückzuführen. Private Nutzer müssen meist nur auf einem oder auf zwei Geräten das Kennwort aktualisieren, Mitarbeiter eines Unternehmens sind hingegen über mehrere Wege unterwegs. Hier sind in erster Linie der PC im Büro, der Laptop, das Smartphone und das Tablet zu nennen. Steht also eine solche Aktion an, dann nimmt das Ganze auch Zeit in Anspruch. Es sind zwar keine Stunden, doch zusammengerechnet kommt trotzdem ein meist nicht gedachter Wert zustande.

Die bessere Lösung

Das regelmäßige Ändern des Passworts macht nur dann Sinn, wenn man auch tatsächlich jedes Mal eine komplett neue Kombination nimmt (die auch schwierig und kompliziert ist). In den meisten Fällen ist aber genau das nicht so, sodass die Wirkung ganz klar verfehlt wird. Die vernünftigere Lösung ist deshalb, dass man von Beginn an ein „richtiges“ Kennwort nimmt und dieses dafür nur 1 Mal im Jahr durch ein ganz neues ersetzt. Der Clou ist nämlich: Entscheidend für die Sicherheit ist nicht die Anzahl der Änderungen, sondern wie stark das Passwort ist. Wird es dann auch nur minimal abgeändert, dann bleibt der Schutz im Großen und Ganzen gleich.

cloud-computing

Die Private Cloud

Die Technologie des Cloud-Hostings ist auf dem Vormarsch und führt zu stabileren und robusteren Plattformen bei ihren Softwarelösungen. In der Vergangenheit speicherte ein entfernter Server seine Daten auf einer virtualisierten Plattform, auf die berechtigte Benutzer zugreifen konnten. Der nächste Schritt, Daten in eine Cloud auszulagern, bietet einem Unternehmen vereinfachten Zugriff für mehr Nutzer.

Mit der Zeit fand die Idee des Cloud-Hostings größeren Anklang und es entstanden verschiedene neue Klassifizierungen der Cloud-Umgebung. Eine Private Cloud ist eine dieser Klassifizierungen, die dazu dient, Daten in einer kontrollierten zentralen Umgebungen zu sichern. Ihr Zweck ist, durch verbesserte Sicherheit und höhere Flexibilität dem Anwender überzeugende Vorteile zu bieten, um Komplikationen im Zusammenhang mit dem Server-Management zu umgehen. Viele Unternehmen haben mittlerweile erkannt, dass mit wenig Zeitaufwand, Mühe und Kosten eine maßgeschneiderte Lösung für die Auslagerung der Daten in einer Private Cloud zu finden ist.

Private Clouds werden in zwei Kategorien eingeteilt. Gehostete private Cloud-Lösungen und Server-Parks, die sich vor Ort beim Unternehmen befinden.

Ein Beispiel einer gehosteten Private-Cloud-Lösung

Wer heute beispielsweise bei Google nach Möglichkeiten sucht, um die optimale Cloud-Umgebung für sein Unternehmen zu finden, erhält eine kaum überschaubare Liste von verwalteten Hosting-Lösungen. Diese bestehen in der Regel aus gehosteten privaten Cloud-Lösungen, unabhängig davon, ob ein Cloud-Anbieter die Server in seinen eigenen Rechenzentren verwaltet oder selbst bei einem dritten Anbieter gemietet hat.

Die Vorteile des Hostings eines Servers einer gehosteten Private-Cloud-Lösung sind vielfältig. Im Fall der gehosteten Private-Cloud-Lösung unterliegt das Sicherheitsmanagement in der Verantwortung des vermittelnden Drittanbieters. Bei einer Cloud-Infrastruktur muss der Kunden allerdings in Sicherheits- und Kontrollpraktiken investieren, um seinen Service bereitstellen zu können. Er erhält zudem zusätzliche Ressourcen, hohe Skalierbarkeit, ein benutzerfreundliches Dashboard und technischen Support, um eine zuverlässige Serververwaltung zu gewährleisten. Ein weiterer Vorteil ist, dass der Anwender viele private Cloud-Dienste zusammen mit verschiedenen Cloud-Service-Providern zu einem niedrigen Preis in Anspruch nehmen kann. Dabei spart er Kosten für den Kauf von Hardware, Personaleinsatz und Energie, die für die Verwaltung und Wartung des eigenen Servers andernfalls anfielen.

cyberspace

Direct Attached Storage (DAS)

Als DAS “Direct Attached Storage” werden Festplatten bezeichnet, die direkt via USB, SATA, FireWire oder ähnliches an einen Server angeschlossen sind. Man bezeichnet ein DAS auch als Block-Level Storage, da der Datenaustausch blockbasiert geschieht. Die Datenblöcke werden durch den Rechner von einer Festplatte ange¬fordert, Beispiel: “Block 5003 von Festplatte 2”.
Der Server kontrolliert dabei diese Zugriffe auf das Spei¬chersystem und kümmert sich um die Verwaltung der Benutzerrichtlinien und Freigabeberechti¬gungen.

Probleme

Bei einem DAS-System existiert keine hohe Ausfallsicherheit. Wenn es zu einem Ausfall des Servers kommen sollte oder gar einem Defekt der Festplatte, steht der Speicherplatz mit all den darin befindlichen Daten nicht mehr zur Verfügung. Zudem müssen die Daten dann erst mit Hilfe eines Backups wieder hergestellt werden, was einen hohen Aufwand verursacht.

Lösungen

Das Problem des Serverausfalls kann durch den Einsatz eines zweiten Servers behoben werden. Dieser gleicht dann seine Daten mit dem anderen Server ab, so dass wenn ein Server ausfällt die Daten weiterhin verfügbar sind. Diese Variante verbessert zu dem die Performance und Ausfallsicherheit des Systems.
Der Defekt oder Ausfall einer einzelnen Festplatte kann mit dem Einsatz einer RAID1-Funktion unschädlich gemacht werden. RAID1 sorgt dafür, dass zwei Festplatten gespiegelt werden und somit auf beiden Festplatten die gleichen Daten vorhanden sind. Fällt nun eine Festplatte aus, stehen immer noch alle Daten im Netzwerk zur Verfügung.

Storage Area Network (SAN)

Definition

In einem Datenspeichernetzwerk, dem SAN, können große Datenmengen gespeichert und bewegt werden. Man bezeichnet das Storage Area Network (SAN) auch als eine Erweiterung von Direct Attached Storage (DAS). Der wesentliche Unterschied zwischen einem DAS und einem SAN liegt darin, dass beim DAS eine Punkt-zu-Punkt-Verbindung zwischen dem Datenspeicher und einem Server herrscht und beim SAN werden mehrere Server über ein Netzwerk an mehrere Datenspeicher angebunden. Das SAN wurde entwickelt, um den geringen Verwaltungsmöglichkeiten der Festplatten von beispielsweise NAS-Systemen, entgegen-zuwirken. Die Verwaltung im SAN ist wesentlich umfangreicher und komplexer. Dies wird aber im Folgenden noch näher beschrieben.
Der gesamte Speicher in einem SAN wird unabhängig vom Standort und Betriebssystem zentral verwaltet. Der Speicher wird dabei zu virtuellen Einheiten zusammengefasst.

Funktionsweise

Speicherzentriert

Einen Zugriff auf den Speicher bekommt man nur über die Server, welche für die Verwaltung der einzelnen Datenspeicher zuständig sind. Die Speicher müssen jedoch nicht am gleichen Ort sein, wie der Server, da sie so oder so über das Netzwerk mit den Servern verbunden sind. Einzelne Festplatten der verschiedenen Server werden zu wenigen logischen, virtuellen Gesamtspeichern zusammengefasst. Diese können von allen Servern über das Speichernetzwerk gemeinsam genutzt werden. Der gesamte Speicherplatz ist nun als ein eigener Speicherblock zu sehen, welcher nun nicht mehr auf verschiedenen Servern verteilt ist.

Beispiel: Server1 = 1TB; Server2 = 3TB; Server3 = 2,5 TB.

Serverzentriert

Die Server kümmern sich um alle Verwaltungsaufgaben, wie die flexible Speicher-platzverteilung, die Zusammenfassung der Datenspeicher zu virtuellen Gesamtspeichern, sowie die Verwaltung der Benutzerrichtlinien und die Zugriffs- und Freigabeberechtigungen. Als Kommunikationsprotokoll zwischen den Servern und den Datenspeichern wird in der Regel SCSI verwendet, das die Transportprotokolle Fibre Channel (FC) oder iSCSI nutzt. Clients, die auf den freigegebenen Speicher zugreifen wollen, bekommen von der Speicherverwaltung nichts mit und haben dauerhaft Zugriff auf die Daten.

Aufbau

Mehrere Festplattensysteme werden an einen Glasfaser-Switch angeschlossen, welcher wiederum mit den jeweiligen Servern per Glasfaser verbunden ist. Dieser Verbund bildet ein einfaches Storage Area Network. An den Servern wird dann ein weiterer Switch angeschlossen, der die Verbindung zum LAN (Local Area Network) herstellt. An diesem Switch werden dann auch alle Clients angeschlossen. Somit wird die Speicherverwaltung durch die Server geregelt und die Clients können über die Server, auf den freigegebenen Speicher zugreifen.

Übertragungsrate

Standardmäßig ist eine Übertragungsrate von bis zu 16 GBit/s möglich. Da aber ein spezielles, für die Massenspeichernutzung angepasstes Protokoll verwendet wird, können Übertragungs-raten von bis zu 1,6 GB/s erreicht werden.

Vorteile eines SAN-Systems

● Jeder Server kann auf jedes Datenlaufwerk zugreifen und somit verwalten
● Cluster-Anwendungen sind möglich
● Hochverfügbarkeit: Redundanz und Ausfallsicherheit
● Virtualisierung: Zusammenfassung der Festplatten in logische, virtuelle Einheiten

tablet

Das neue Surface Pro 4

Das Surface Pro 4 ist nicht nur irgendein Tablet, sondern der Spitzenreiter unter der Vielzahl an verschiedenen Tablets. Das Display hat eine Zollgröße von 12,3 Zoll und ein Gewicht von 800 Gramm. Bezieht man die Tastatur mit ein, kommt man auf ein Gewicht von 1105 Gramm. Das Display hat eine Auflösung von 2736×1824 Pixeln. Somit lassen sich für den Nutzer Bilder oder auch Videos in einer sehr hohen Qualität wiedergeben.

Das Surface Pro 4 kommt in verschiedenen Ausstattungen daher. Es beginnt mit einem Intel Core M3 Prozessor und einer Festplatte von 128 Gigabyte. Der Preis hierfür läge bei 999 Euro. Das beste Modell ist mit einer 512 GB Festplatte, einem Arbeitsspeicher von 16 GB und einem Intel Core I7 Prozessor ausgestattet. Somit ist es nicht nur ein Tablet, sondern, ein kompletter Notebookersatz.

Für Studenten und Architekten, aber auch dem normalen Nutzer bietet es sich hervorragent an, denn ich kann nicht nur aufgrund des Stiftes der im Lieferumfang enthalten ist, wunderbar mit dem Tablet schreiben, sondern auch präzise zeichnen. Da es leichter und kleiner als ein herkömmliches Notebook ist, kann man es flexibel zu Hause, aber auch unterwegs nutzen.

Zudem ist ein überrangender Akku mit einer Laufzeit von ca. 8- 10 Stunden bei normalem Gebrauch verbaut. Außerdem besitzt das Tablet einen integrierten Tabletständer der sich in verschiedene Positionen auf der Rückseite aufklappen lässt. Eine Tastatur lässt sich auch individuell an das Surface Pro 4 per Magnet andocken. So kann man auch bei Bedarf einen längeren Text aufsetzen, ohne nur direkt mit dem Display arbeiten zu müssen. Die dazugehörige Tastatur gibt es in verschieden Farben wie z.B. Schwarz, Rot, Blau, Hellblau oder Purple. Der Preis der Tastatur ist unterschiedlich, je nach Farbe und Anbieter. Er liegt bei ca. 117,99 Euro.

Wenn man das Surface Pro 4 mit anderen Herstellern vergleicht, wie z.B. Samsung oder auch Apple, schneidet das Surface von den technischen Daten wie Display und Prozessorgeschwindigkeit am besten ab. Natürlich hat es auch je nach Ausstattungswunsch einen stolzen Preis, der aber aufgrund der Technik und Ausstattung irgendwie auch gerechtfertigt ist. Wenn man beruflich viel unterwegs ist und produktiv arbeiten möchte, dann bietet das Surface Pro 4 für den Verwender tollle Arbeitsmöglichkeiten. Besonders die Stifteingabe hat viele Vorteile und macht das Arbeiten mit einem Tablet sinnvoller, da auch grafisch anspruchsvolle Arbeiten gut gelingen, denn es sind sehr viele verschiedene Druckpunkte die von dem Stift erkannt werden.

Abschließend kann man sagen, dass das Surface in vielen Punkten den anderen Tablets überlegen ist.