Die 6 besten Hacks für Sportwetten auf die NFL

Die 6 besten Hacks für Sportwetten auf die NFL

Der Herbst kommt langsam und American Football mit der National Football League (NFL) übernimmt die Regie in der nordamerikanischen Sportwelt. Trotz der Corona-Pandemie wird die NFL mit einem entsprechenden Hygienekonzept ausgestattet ihre Saison planmäßig beginnen.

Die teuerste Sportliga der Welt kann sich einen Ausfall der Saison oder auch nur einiger Spieltage kaum leisten. Der Schaden wäre immens. Auch hierzulande ist in den vergangenen Jahren der Stellenwert des American Footballs stets angestiegen und rückt dadurch auch im Rahmen der Sportwetten immer mehr in den Focus. Ohne eine gewisse Erfahrung sollte aber nicht plötzlich willkürlich auf eine völlig neue Sportart gesetzt werden. Es gibt einige Dinge, die beim American Football gesondert beachtet werden müssen. Neben dem passenden Sportwetten Anbieter sind das vor allem diese Tips.

Die beliebtesten Wettarten im American Football

Natürlich ist es populär zu tippen, wer ein Spiel gewinnen wird. In der NFL wird bei Unentschieden verlängert, sodass ein Sieger unbedingt herbeigeführt werden muss. Unentschieden sind äußerst rar und daher auch immer mit einer monumentalen Quote ausgestattet. Manche Spielzeiten kommen ganz ohne Unentschieden aus und es ist entsprechend schwierig ein solches Ergebnis zu tippen. Die meisten Wettanbieter bieten Gewinnerwetten als Zwei-Wege- oder Drei-Wege-Wetten an. Bei den Drei-Wege Wetten sind die Quoten minimal besser, da hier die Möglichkeit des Unentschiedens mit hineingerechnet wird. Meistens wird nicht das Endergebnis, sondern der Stand nach vier Vierteln gerechnet. Da kann dann schon einmal ein Remis vorkommen. Den passenden Wett Tipp findet Ihr unter www.wetttippsheute.net.

Hack #1: Tippe lieber auf den Sieger ohne die Unentschiedenmöglichkeit, da dann die Verlängerung mit eingerechnet wird. In 99% der Spiele gibt es einen Sieger.

Fast genau so interessant ist die OVER / UNDER-Wette im American Football. Dabei lassen sich alle Varianten tippen. Die Gesamtpunktzahl des Spiels oder die Punktzahl der beiden Mannschaften individuell lässt sich vorhersagen und bietet immer wieder genügend Anlass zur Diskussion. Hier wird ein gewisses Vorwissen vorausgesetzt. Der Wettfreund muss sich mit den Offensiv- und Defensivstärken der beiden Mannschaften auskennen und ein bisschen abschätzen können, wie die Mannschaften auf dem Feld zusammenpassen, wo Vor- und Nachteile zu finden sind. Es fallen viele Punkte in den meisten American Football-Spielen und das macht es auch für die Buchmacher sehr schwer genau abzuschätzen, wie viele Punkte denn nun fallen werden.

Hack #2: Orientiere dich an den Wettquoten der Buchmacher, denn sie haben die besten Statistiken und Informationen zur Verfügung. Wenn du eine Punktzahl im Kopf hast und der Buchmacher das völlig anders einschätzt, kannst du vielleicht einen besonderen Value finden, der eine Wette rechtfertigt.

Auch Handicap-Wetten sind beliebt im American Football. Hier geht es darum, einzuschätzen mit wie vielen Punkte eine Mannschaft das Spiel gewinnt bzw. verliert. Das erfordert ähnliche Überlegungen wie die OVER / Under-Wetten. Auch hier können Quoten interessant werden, wenn der Buchmacher ein Spiel falsch einschätzt.

Daneben gibt es zahlreiche Sonderwetten. Beispielsweise kann getippt werden, wer den ersten Touchdown erzielt, ob es einen Safety oder eine Interception gibt und noch viel mehr. Diese Wetten beruhen aber meist auf Inuition, weniger auf Wissen und sind daher mehr mit dem Faktor Glück verbunden.

Hack #3: Finger weg von Glückwetten! Sie sind kaum vorhersehbar und bieten keine langfristigen Gewinnchancen.

Spielabschnittswetten dagegen können in der NFL interessant sein, denn es gibt Mannschaften, die stark in ein Match starten oder auch Teams, die dafür bekannt sind am Ende den Gegner noch einmal zu überrollen. Die Wettarten sind identisch mit den Gesamtwetten, nur dass in einem Spielabschnitt, einem Viertel oder einer Halbzeit, ein wenig anders strategisch gedacht werden muss.

Hack #4: Bei Spielabschnittswetten beachten, dass am Ende des Abschnitts meist nicht bedingungslos auf den Sieg gespielt wird, da die Teams ja danach noch Spielzeit zur Verfügung haben.Hier gehen die Interessen des Sportwettenliebhabers und der Mannschaften auseinander.

Auch individuelle Spielerstatistiken können gewettet werden. So kann ein Quarterback eine bestimmte Anzahl an Touchdown-Pässen spielen oder auch ein Running Back eine Anzahl von Yards als Raumgewinn erlaufen. Auch in der Defensive ist das Möglich, wenn ein Defensive End oder Linebacker eine bestimmte Anzahl von Sacks oder Tackles erreicht. Hier ist die Konzentration auf einen bestimmten Spieler wichtig. Es müssen Statistiken ausgewertet werden, wie der Spieler mit Spielsystemen anderer Mannschaften zurechtkommt und in welchen Spielen er besonders hervorsticht oder ausgesprochen blass bleibt.

Hack #5: Bei Spielerstatistikwetten sind gute Quoten erreichbar. Es lohnt sich oft eine Wette zu platzieren, wenn die Wette statistisch abgesichert werden kann.

Langzeitwetten auf den Super Bowl-Sieger sind lukrativ und bieten dem Wettsportler attraktive Quoten. Allerdings sind Umstände wie Verletzungen , Sperren oder andere Katastrophen meist nicht abzusehen und bieten eine unangenehme Variable.

Hack #6: Zu Saisonbeginn einfach auf den persönlich ermittelten Ligafavoriten setzen und den Einsatz vergessen. So kann plötzlich dann doch ein ein substantieller Gewinn die Saison am Ende noch verschönern.

Auch in dieser Saison wird die NFL wieder jede Menge an Überraschungen produzieren. Es lohnt sich also genau hinzuschauen und auch einmal einen Podcast oder andere Informationsquellen, die sich mit der aktuellen Form der Teams auseinandersetzen zu konsultieren. Die NFL verdient es, zu einem der spannendsten Wettmärkte auch in Europa zu werden.

iPhone 12 kommt verspaetet – alle Informationen und Alternativen

Neue iPhone Modelle kommen üblicherweise im September auf den Markt. Aufgrund der Corona Krise müssen Interessenten dieses Jahr bis Oktober auf das neueste Modell von Apple warten. Trotz der Verspätung sind bereits viele Details über das iPhone 12 bekannt. Der folgende Beitrag informiert darueber, welche Informationen bereits bekannt sind, ob sich der Kauf des neuen Apple Mobiltelefon überhaupt noch lohnt, und stellt Alternativen zum iPhone 12 vor.

Design des neuen Apple Gerätes

Schon länger gibt es eindeutige Hinweise, dass das Design bei den Modellen der neuesten iPhone-Generation weg von runden Ecken geht. Die Wahrscheinlichkeit dieser Entwicklung wurde anlässlich der Vorstellung vom Modell iPad Air auf dem Apple-Event untermauert.

Display und Kamera vom iPhone 12

Das Display vom iPhone 12 unterstützt erstmalig die erhöhte Bildwiederholungsrate von 120 Hz. Bewegungen werden noch flüssiger auf dem Bildschirm dargestellt. Es ist sehr wahrscheinlich, dass dieses Feature nur Käufern der teueren Pro-Variante zur Verfügung steht.

Bezüglich Display und Kamera ist ebenfalls klar, was das iPhone 12 dem Anwender zu bieten hat. Die Rückseite ist mit einer Dreifach-Kamera ausgestattet. Sie bietet eine bessere Schärfentiefe bei Porträt-Fotos und ist besser als die Vorgängermodelle für AR-Anwendungen ausgestattet. Der innovative LiDAR-Sensor unterstützt den Anwender, der beispielsweise mittels einer Einrichtungsapp ein Möbelstück platzieren will, mit präziser optischer Abstandsmessung. Einige Sportwetten Apps finden sich hier.

Verspätete Markteinführung – Modelle aus dem mittleren Preissegment holen auf

Wer nicht mehr länger auf das iPhone 12 warten kann oder will, sollte sich einige Modelle der oberen Mittelklasse von Fremdherstellern anschauen. Smartphones mit leistungsfähigen Displays und guten Kameras sind zur Hälfte des Preises des neuen iPhone 12 erhältlich. Der Haken an diesen Alternativen ist, dass der Käufer einen Kompromiss eingehen muss. Wer ein Smartphone mit einem hochauflösenden Display sucht, muss einen schwächeren Akku oder andere Defizite in Kauf nehmen.

Oberklasse Smartphones bieten hervorragende Komplett-Lösungen

Nicht nur das Flaggschiff von Samsung, das Modell Galaxy S20 und ASUS ROG Phone2 Gaming-Smartphone bieten eine innovative, höhere Bildwiederholrate, auch mehrere Modelle aus dem mittleren Preissegment haben diesbezüglich aufgeholt. Die Kameraauflösung dieser Geräte erhöht sich kontinuierlich von Generation zu Generation. Die Ausstattung mit zwei oder sogar drei Motiven ist bei zahlreichen Modellen aus diesem Segment inzwischen Standard. Qualitativ hochwertige Smartphones aus dem mittleren Preissegment signalisieren eindeutig, dass gute Komplett-Pakete auch preiswert sein können.

Drei Alternativen zum brandneuen iPhone 12

OnePlus Nord

Mit diesem Gerät hat Hersteller OnePlus ein leistungsfaehiges Smartphone mit einem flotten Chipsatz und leistungsfähiger Kamera im mittleren Preissegment geschaffen.

Google Pixel 4a

Beim Modell Google Pixel 4a handelt es sich um eine abgespeckte Variante vom leistungsstarken Smartphone Google Pixel 4 mit hervorragender Kamera. Testberichten ist zu entnehmen, dass das günstigere Modell Google 4a mit einer nahezu identischen Kamera bestückt ist und erstklassige Aufnahmen liefert.

Realme 6 Pro

Dieses Smartphone kostet nur ein Viertel des Preises, der für das iPhone 12 verlangt wird. Das Gerät überzeugt mit einem starkem, schnellem 90-Hz-Display. Zugunsten des günstigen Preises wurde auf die Ausstattung mit OLED-Technologie verzichtet.

Wie durch die Pandemie die Digitalisierung vorangetrieben wird

Die Corona-Pandemie bringt auch Vorteile mit sich. Das mag sich zwar zynisch anhören, ist es aber mitnichten. Die Krise zwingt die Länder zu einem Umdenken in bisher unbekanntem Ausmaß. Das wirkt sich insbesondere auf die Digitalisierung aus, denn in vielen Ländern bekommt sie durch die Pandemie einen gehörigen Schub.

Die Corona-Pandemie hat alle zu einem Umdenken veranlasst. Die Digitalisierung bekommt dadurch einen gewaltigen Schub. Viele Unternehmen sind zum Homeoffice übergegangen und haben die Vorteile daraus für sich erkannt. Manche Konzerne wollen sogar das Homeoffice auch nach der Pandemie beibehalten um die Kosten für das Büro zu sparen. In Schulen wird der Unterricht teilweise auch digital abgehalten und Konferenzen finden online statt.

Es gibt sogar Länder, die auf Kontaktverbote oder Schließungen von Geschäften und Lokalen verzichten und trotzdem durch die Krise kommen weiß allvideoslots.com/fi/. Doch der Hauptgewinner der Krise ist die Digitalisierung. Vermehrt geben die Regierungen den Ausbau des 5G-Netzes in Auftrag, denn darauf wird in Zukunft nicht verzichtet werden können. Durch die Digitalisierung wird sich die Arbeitswelt, die wir heute noch kennen, total verändern. Vieles wird vom heimischen Schreibtisch aus erledigt werden können und andere Bereiche werden folgen. Brauchten wir erst eine Pandemie, um die Vorteile der Digitalisierung zu erkennen? Hier ein Vergleich.

apple

IOS 9 mit Schluckauf

Wenn es um Apple-Produkte geht, dann sind unsere Erwartungen hoch. Kein Wunder: Sie kosten sie weit mehr als die Windows-Erzeugnisse. Apple besticht vor allem durch zwei Dinge, langlebige Hardware und kinderleicht zu bedienende Software. Beides war zu Zeiten von Steve Jobs gewährleistet.

Heutzutage mehren sich Stimmen, die zweifeln, ob die Nachfolger des Apple-Gurus tatsächlich den Ruf bewahren können. IOS 9, das Betriebssystem für iPhones, iPads und iPods Touch, ist ein Beispiel dafür. Obwohl es positive Neuerungen einführt, ist auch die Liste der Glitches lang. Das beweist, dass die Leute von Apple auch nur mit Wasser kochen und die Peitsche ihres einstigen Zuchtherren Steve Jobs zu fehlen scheint.

Hier sind die gängigen Glitches von IOS 9

1. Gerät läuft langsam, alles verzögert sich

Das größte Problem war kurz nach dem Veröffentlichen das Updates, dass IOS 9 nicht wenige iPhones völlig unbenutzbar gemacht hat. Apple erklärte das mit einer Überlastung der Servers, die dazu führte, dass zahlreiche Updates stecken blieben. Allerdings gibt es immer noch Klagen, dass Geräte nach dem Update sehr langsam laufen. In diesem Fall empfiehlt sich ein Neustart. Wer ein älteres Gerät besitzt, kann versuchen, ein paar Funktionen abzuschalten, zum Beispiel in Einstellungen/Allgemein unter Bedienungshilfen Bewegung reduzieren. Wenn weiter Sand im Getriebe ist, kann man nur auf das nächste Update hoffen.

2. WLAN funktioniert nicht

Mit dem WLAN und dem mobilen Netz gibt es viele Probleme bei IOS 9. Der WLAN-Assist soll dafür sorgen, dass ein Gerät immer das beste Netz auswählt. Die Theorie scheint hier besser zu funktionieren als die Praxis. Falls man das Gerät nicht in das WLAN einklinken kann, sollte man zuerst versuchen, den WLAN Assist abzuschalten (Einstellungen/Mobiles Netz/WLAN Assist). Manchmal hilft es auch, ganz einfach Mobiles Netz ab- und wieder anzuschalten. Dazwischen sollte man mindestens 30 Sekunden verstreichen lassen.

Bei den WLAN Einstellungen kann man probieren, zunächst einmal das WLAN ab- und wieder anzuschalten. Manchmal hilft es auch, vorübergehend den Flugmodus anzutippen. Wenn gar nichts mehr geht in Sachen WLAN, empfiehlt es sich, die gesamten Einstellungen zu löschen und von vorn anzufangen. Dafür braucht man alle Passwörter für die benutzten Netzwerke. (Die beste Methode, Passwörter zu bewahren, ist altmodisch auf einem Stück Papier an einem sicheren Ort.)

Die Radikalkur beginnt mit Einstellungen, gefolgt von Allgemein, Zurücksetzen, alle Einstellungen zurücksetzen.

3. Screen bleibt stecken

Ein eingefrorener Bildschirm kann manchmal behoben werden, indem man das Gerät an ein Mac-Book oder einen großen Mac anschließt. Falls das nichts hilft, sollte Ab- und Anschalten über den Start-Knopf das Problem lösen.

4. Gamecenter mag nicht

Das Gamecenter funktioniert bei einigen Nutzern überhaupt nicht mehr nach dem Upgrade. Hier hilft es im Moment nur, auf ein Update zu warten, weil die Frist zur Rückkehr zu IOS 8.4.1 verstrichen ist.

5. Bluetooth Probleme

Wenn es mit dem Bluetooth Probleme gibt, sollte man versuchen, alle Geräte in den Einstellungen neu anzuschließen. Manchmal hilft auch ein Reboot. Wenn alles nichts fruchtet, dann empfiehlt sich die oben beschriebene Radikalkur. Datensicherung sollte man nicht vergessen.

Darum ist das regelmäßige Ändern des Passworts keine gute Idee

Wenn es um die Thematik Passwort geht, dann findet man vor allem im Internet viele Tipps dazu. Der wohl weitverbreitetste Ratschlag ist, dass man sein Passwort regelmäßig ändern sollte. Als Privatverbraucher liegt einem die Entscheidung frei in der Hand, es besteht also keine Pflicht den Rat zu befolgen.

Bei Unternehmen sieht es schon anders aus, denn in manchen Fällen schreibt einem der Chef diesen Prozess vor. Es kann zum Beispiel heißen, dass jeder Mitarbeiter alle 60 oder 90 Tage sein Kennwort ändern muss. Auf dem ersten Blick eine sichere und vernünftige Sache, doch spätestens beim zweiten Blick kommen dann auch die Schattenseiten zum Vorschein. Es kennt sie zwar fast niemand, doch sie gibt es tatsächlich.

Die unsichere Wahl

Der erste Faktor ist die Qualität des Passworts. Wer bereits von Anfang an über die regelmäßige Änderung weiß, der nimmt in der Regel von Haus aus ein vergleichsweise „einfaches“ Passwort. Natürlich erfüllt es die Anforderungen wie Sonderzeichen oder Zahlen, doch auch unter diesen Voraussetzungen kann man zwischen einem „einfachen“ und schweren Kennwort wählen. Ein negatives Beispiel wäre „[email protected]“, es würde zwar den Regeln entsprechen, doch sicher ist es dennoch nicht. In so einem Fall steht nicht die Sicherheit, sondern das einfache Merken im Vordergrund. Klüger wäre ein Passwort wie „!i(0hKm(@1Kl-“. Das Problem ist also, dass das Kennwort von Haus aus schon nicht so sicher ist, wie es eigentlich sein sollte. Für Angreifer nicht unbedingt ein Nachteil.

Minimale Änderungen

Beim zweiten Faktor geht es um die Änderung. Die Mehrheit verwendet nämlich keine vollständig neue Kombination, sondern es werden lediglich minimale Unterschiede integriert. Beispielsweise wird die letzte Zahl um den nächsthöheren Wert ersetzt, oder aber man fügt einfach einen Buchstaben hinzu. Auch hier spielt die Sicherheit nur eine Nebenrolle, denn solch minimale Veränderungen haben nur geringe Auswirkungen. Professionelle Angreifer haben mit beiden Varianten keine Probleme, lediglich der Zeitaufwand erhöht sich ein wenig. Entscheidet man sich also nicht für eine ganz neue Kombination, dann ist man auch nicht besser geschützt als zuvor.

Der Zeitaufwand

Faktor Nummer drei ist auf die Zeit zurückzuführen. Private Nutzer müssen meist nur auf einem oder auf zwei Geräten das Kennwort aktualisieren, Mitarbeiter eines Unternehmens sind hingegen über mehrere Wege unterwegs. Hier sind in erster Linie der PC im Büro, der Laptop, das Smartphone und das Tablet zu nennen. Steht also eine solche Aktion an, dann nimmt das Ganze auch Zeit in Anspruch. Es sind zwar keine Stunden, doch zusammengerechnet kommt trotzdem ein meist nicht gedachter Wert zustande.

Die bessere Lösung

Das regelmäßige Ändern des Passworts macht nur dann Sinn, wenn man auch tatsächlich jedes Mal eine komplett neue Kombination nimmt (die auch schwierig und kompliziert ist). In den meisten Fällen ist aber genau das nicht so, sodass die Wirkung ganz klar verfehlt wird. Die vernünftigere Lösung ist deshalb, dass man von Beginn an ein „richtiges“ Kennwort nimmt und dieses dafür nur 1 Mal im Jahr durch ein ganz neues ersetzt. Der Clou ist nämlich: Entscheidend für die Sicherheit ist nicht die Anzahl der Änderungen, sondern wie stark das Passwort ist. Wird es dann auch nur minimal abgeändert, dann bleibt der Schutz im Großen und Ganzen gleich.

facebook

Facebooks neuester Datenschutzfehler

Facebooks Probleme mit den Datenschutzfehlern wurden schlimmer, als kürzlich bekannt wurde, dass nicht weniger als 14 Millionen Facebook-Nutzer Inhalte ihrer Artikel unwissentlich öffentlich gepostet hatten, die eigentlich nur Freunde oder kleinere Gruppen sehen sollten.

Was ist passiert?

Facebook macht einen Softwarefehler für die automatische Änderung einer wichtigen Datenschutzeinstellung verantwortlich, die bestimmt, wer welche Beiträge von Benutzern sehen kann. Diese Einstellung ist „sticky“. Das bedeutet, dass es von Post zu Post konsistent bleibt, es sei denn, sie wird manuell geändert. Wer einen Beitrag ausschließlich mit den Facebook „Freunden“ teilen will, bekommt alle zukünftigen Beiträge für diese Gruppe angezeigt, es sei denn, die Einstellung wird vom Benutzer aktualisiert. Facebook sagt, dass ein Software-Glitch diese Einstellung für 14 Millionen Benutzer ohne jede Warnung auf „öffentlich“ änderte. So haben Facebook User unter dem Eindruck Artikel veröffentlicht, diese nur mit einer kleinen Gruppe von Benutzern teilten, unwissentlich mit allen geteilt.

Warum spielt es eine Rolle?

Eines der wichtigsten Versprechen von Facebook an die Nutzer ist, dass sie kontrollieren können, wer ihre Inhalt sieht. Ein Fehler wie dieser untergräbt dieses Versprechen und das Vertrauen, welches kürzlich bereits ein großes Problem bei Facebooks „Cambridge Analytica“ Datenschutzdebakel war.

Warum passiert das?

Es scheint, dass es bald wöchentlich vermeidbare Fehler bei Facebook gibt. Und es wird wahrscheinlich nicht das letzte Privacy Problem von Facebook in diesem Jahr sein. Besonders, weil das soziale Netzwerk derzeit unter dem Mikroskop der Datenschützer liegt und so auch Kleinigkeiten auffallen. Da die privaten Daten, die praktisch in jedem Element von Facebook enthalten sind, von Profilen über private Nachrichten bis hin zu gezielter Werbung, wird, wenn etwas schiefgeht, immer die Privatsphäre der Benutzer betroffen sein.

cloud-computing

Die Private Cloud

Die Technologie des Cloud-Hostings ist auf dem Vormarsch und führt zu stabileren und robusteren Plattformen bei ihren Softwarelösungen. In der Vergangenheit speicherte ein entfernter Server seine Daten auf einer virtualisierten Plattform, auf die berechtigte Benutzer zugreifen konnten. Der nächste Schritt, Daten in eine Cloud auszulagern, bietet einem Unternehmen vereinfachten Zugriff für mehr Nutzer.

Mit der Zeit fand die Idee des Cloud-Hostings größeren Anklang und es entstanden verschiedene neue Klassifizierungen der Cloud-Umgebung. Eine Private Cloud ist eine dieser Klassifizierungen, die dazu dient, Daten in einer kontrollierten zentralen Umgebungen zu sichern. Ihr Zweck ist, durch verbesserte Sicherheit und höhere Flexibilität dem Anwender überzeugende Vorteile zu bieten, um Komplikationen im Zusammenhang mit dem Server-Management zu umgehen. Viele Unternehmen haben mittlerweile erkannt, dass mit wenig Zeitaufwand, Mühe und Kosten eine maßgeschneiderte Lösung für die Auslagerung der Daten in einer Private Cloud zu finden ist.

Private Clouds werden in zwei Kategorien eingeteilt. Gehostete private Cloud-Lösungen und Server-Parks, die sich vor Ort beim Unternehmen befinden.

Ein Beispiel einer gehosteten Private-Cloud-Lösung

Wer heute beispielsweise bei Google nach Möglichkeiten sucht, um die optimale Cloud-Umgebung für sein Unternehmen zu finden, erhält eine kaum überschaubare Liste von verwalteten Hosting-Lösungen. Diese bestehen in der Regel aus gehosteten privaten Cloud-Lösungen, unabhängig davon, ob ein Cloud-Anbieter die Server in seinen eigenen Rechenzentren verwaltet oder selbst bei einem dritten Anbieter gemietet hat.

Die Vorteile des Hostings eines Servers einer gehosteten Private-Cloud-Lösung sind vielfältig. Im Fall der gehosteten Private-Cloud-Lösung unterliegt das Sicherheitsmanagement in der Verantwortung des vermittelnden Drittanbieters. Bei einer Cloud-Infrastruktur muss der Kunden allerdings in Sicherheits- und Kontrollpraktiken investieren, um seinen Service bereitstellen zu können. Er erhält zudem zusätzliche Ressourcen, hohe Skalierbarkeit, ein benutzerfreundliches Dashboard und technischen Support, um eine zuverlässige Serververwaltung zu gewährleisten. Ein weiterer Vorteil ist, dass der Anwender viele private Cloud-Dienste zusammen mit verschiedenen Cloud-Service-Providern zu einem niedrigen Preis in Anspruch nehmen kann. Dabei spart er Kosten für den Kauf von Hardware, Personaleinsatz und Energie, die für die Verwaltung und Wartung des eigenen Servers andernfalls anfielen.

cyberspace

Direct Attached Storage (DAS)

Als DAS “Direct Attached Storage” werden Festplatten bezeichnet, die direkt via USB, SATA, FireWire oder ähnliches an einen Server angeschlossen sind. Man bezeichnet ein DAS auch als Block-Level Storage, da der Datenaustausch blockbasiert geschieht. Die Datenblöcke werden durch den Rechner von einer Festplatte ange¬fordert, Beispiel: “Block 5003 von Festplatte 2”.
Der Server kontrolliert dabei diese Zugriffe auf das Spei¬chersystem und kümmert sich um die Verwaltung der Benutzerrichtlinien und Freigabeberechti¬gungen.

Probleme

Bei einem DAS-System existiert keine hohe Ausfallsicherheit. Wenn es zu einem Ausfall des Servers kommen sollte oder gar einem Defekt der Festplatte, steht der Speicherplatz mit all den darin befindlichen Daten nicht mehr zur Verfügung. Zudem müssen die Daten dann erst mit Hilfe eines Backups wieder hergestellt werden, was einen hohen Aufwand verursacht.

Lösungen

Das Problem des Serverausfalls kann durch den Einsatz eines zweiten Servers behoben werden. Dieser gleicht dann seine Daten mit dem anderen Server ab, so dass wenn ein Server ausfällt die Daten weiterhin verfügbar sind. Diese Variante verbessert zu dem die Performance und Ausfallsicherheit des Systems.
Der Defekt oder Ausfall einer einzelnen Festplatte kann mit dem Einsatz einer RAID1-Funktion unschädlich gemacht werden. RAID1 sorgt dafür, dass zwei Festplatten gespiegelt werden und somit auf beiden Festplatten die gleichen Daten vorhanden sind. Fällt nun eine Festplatte aus, stehen immer noch alle Daten im Netzwerk zur Verfügung.

Storage Area Network (SAN)

Definition

In einem Datenspeichernetzwerk, dem SAN, können große Datenmengen gespeichert und bewegt werden. Man bezeichnet das Storage Area Network (SAN) auch als eine Erweiterung von Direct Attached Storage (DAS). Der wesentliche Unterschied zwischen einem DAS und einem SAN liegt darin, dass beim DAS eine Punkt-zu-Punkt-Verbindung zwischen dem Datenspeicher und einem Server herrscht und beim SAN werden mehrere Server über ein Netzwerk an mehrere Datenspeicher angebunden. Das SAN wurde entwickelt, um den geringen Verwaltungsmöglichkeiten der Festplatten von beispielsweise NAS-Systemen, entgegen-zuwirken. Die Verwaltung im SAN ist wesentlich umfangreicher und komplexer. Dies wird aber im Folgenden noch näher beschrieben.
Der gesamte Speicher in einem SAN wird unabhängig vom Standort und Betriebssystem zentral verwaltet. Der Speicher wird dabei zu virtuellen Einheiten zusammengefasst.

Funktionsweise

Speicherzentriert

Einen Zugriff auf den Speicher bekommt man nur über die Server, welche für die Verwaltung der einzelnen Datenspeicher zuständig sind. Die Speicher müssen jedoch nicht am gleichen Ort sein, wie der Server, da sie so oder so über das Netzwerk mit den Servern verbunden sind. Einzelne Festplatten der verschiedenen Server werden zu wenigen logischen, virtuellen Gesamtspeichern zusammengefasst. Diese können von allen Servern über das Speichernetzwerk gemeinsam genutzt werden. Der gesamte Speicherplatz ist nun als ein eigener Speicherblock zu sehen, welcher nun nicht mehr auf verschiedenen Servern verteilt ist.

Beispiel: Server1 = 1TB; Server2 = 3TB; Server3 = 2,5 TB.

Serverzentriert

Die Server kümmern sich um alle Verwaltungsaufgaben, wie die flexible Speicher-platzverteilung, die Zusammenfassung der Datenspeicher zu virtuellen Gesamtspeichern, sowie die Verwaltung der Benutzerrichtlinien und die Zugriffs- und Freigabeberechtigungen. Als Kommunikationsprotokoll zwischen den Servern und den Datenspeichern wird in der Regel SCSI verwendet, das die Transportprotokolle Fibre Channel (FC) oder iSCSI nutzt. Clients, die auf den freigegebenen Speicher zugreifen wollen, bekommen von der Speicherverwaltung nichts mit und haben dauerhaft Zugriff auf die Daten.

Aufbau

Mehrere Festplattensysteme werden an einen Glasfaser-Switch angeschlossen, welcher wiederum mit den jeweiligen Servern per Glasfaser verbunden ist. Dieser Verbund bildet ein einfaches Storage Area Network. An den Servern wird dann ein weiterer Switch angeschlossen, der die Verbindung zum LAN (Local Area Network) herstellt. An diesem Switch werden dann auch alle Clients angeschlossen. Somit wird die Speicherverwaltung durch die Server geregelt und die Clients können über die Server, auf den freigegebenen Speicher zugreifen.

Übertragungsrate

Standardmäßig ist eine Übertragungsrate von bis zu 16 GBit/s möglich. Da aber ein spezielles, für die Massenspeichernutzung angepasstes Protokoll verwendet wird, können Übertragungs-raten von bis zu 1,6 GB/s erreicht werden.

Vorteile eines SAN-Systems

● Jeder Server kann auf jedes Datenlaufwerk zugreifen und somit verwalten
● Cluster-Anwendungen sind möglich
● Hochverfügbarkeit: Redundanz und Ausfallsicherheit
● Virtualisierung: Zusammenfassung der Festplatten in logische, virtuelle Einheiten

Server

Speichernetzwerke – NAS, DAS, SAN

Unter Speichernetzwerken versteht man einen Zusammenschluss von mehreren, gleichen Speichermedien. In unseren Fall, die Festplatten. Oft werden diese Speichersysteme über Breitbandnetze wie zum Beispiel Fibre-Channel (Glasfaser), mit Servern verbunden. Man spricht von Speichernetzwerken. Dabei ist darauf zu achten, dass alle Hosts permanenten Zugriff auf alle Massenspeicher haben. Außerdem muss eine Datenausfallsicherheit und ständiger Lastaustausch zwischen den verfügbaren Sicherungsgeräten gewährleistet sein.

Im Folgenden werden verschiedene Speichernetzwerke ausführlich beschrieben:

“Network Attached Storage”, “Direct Attached Storage” und “Storage Area Network”.

Network Attached Storage (NAS)

Definition

Als NAS “Network Attached Storage” bezeichnet man einen Datenspeicher, welcher direkt mit dem LAN (Local Area Network) verbunden ist. Jedoch ist dies die kleinste Variante eines NAS-Systems. Interessant wird es erst, wenn das System eine eigene CPU und einen eigenen Arbeits¬speicher besitzt, sowie einen Zusammenschluss von mehreren Festplatten zu einer eigenständigen Einheit bietet. Dabei wird das NAS aber nicht über entsprech¬ende Schnittstellen an einen Server angeschlossen, sondern direkt mit dem Netzwerk verbunden. NAS-Systeme sind konfigurierbare Datenspeicher mit eigenem Betriebssystem und stellen großen Speicherplatz, insbesondere als Backup-Lösung, in einem Netzwerk zur Verfügung.

Funktionsweise

Wie schon zuvor beschrieben, werden in einem NAS-System mehrere Festplatten als Einheit zusammengefasst. Dieser Verbund wird meist mit einem der verschiedenen RAID (Redundant Array of Independent Disks) -Verfahren gelöst. Bei einem RAID1 werden beispielsweise mindestens 2 Festplatten gespiegelt, das heißt, dass auf einer Festplatte genau die gleichen Daten, wie auf der anderen vorhanden sind. Falls nun eine von beiden Festplatten ausfällt, besteht kein Grund zur Sorge, denn es sind noch alle Daten auf der anderen Festplatte vorhanden. Es ist außerdem wichtig zu sagen, dass von allen gängigen Betriebssystemen aus, auf das NAS zugegriffen werden kann, sei es Windows, MacOS, Linux, usw.
Für die Funktion des Filesharings (dt.: Datenaustausch / Datenbereitstellung) werden Protokolle wie Network File System (NFS), Common Internet File System (CIFS) und das Hypertext Transfer Protocol (HTTP) eingesetzt.

Vorteile von NAS-Systemen

Einfache Installation und Einrichtung

Für die Installation ist es ausreichend, das NAS-System am Strom und per Netzwerkkabel an das LAN (Local Area Network) anzuschließen. Zudem ist die Eingabe einer IP-Adresse notwendig. Alle weiteren Einstellungen werden im lokalen Netzwerk über ein so genanntes Webinterface des NAS getätigt. Diese Einstellungen sind meist selbst erklärend.

Hohe Zuverlässigkeit

NAS-Systeme bieten durch ihre redundanten Sicherheitsfunktionen eine hohe Ausfallsicherheit. Festplatten können mit Hilfe der RAID-Funktion während des Betriebs (on-the-fly) ausgetauscht werden, wie auch die Lüfter und Stromversorgung (da redundant vorhanden). Somit bleiben alle Daten durchgehend im Netzwerk verfügbar.

Einfaches Backup

Durch ein am NAS-System angeschlossenes Bandlaufwerk muss man sich keine Sorgen mehr über die Datensicherung machen. Die Daten werden jeweils zu einer festgelegten Zeit, im laufenden Betrieb, auf das Band kopiert und somit gesichert. Meist werden diese Bänder einmal am Tag gewechselt. Ein weiterer Vorteil ist, dass dabei die Netzwerkressourcen nicht belastet werden. Zudem ist der Verwaltungsaufwand für das Backup sehr gering.

Kostengünstig

Da auf NAS-Systemen meist Open Source Betriebssysteme wie Linux oder Unix betrieben werden, fallen nur geringe bis gar keine Lizenzkosten an. Durch die oben beschriebene, einfache Installation, werden zusätzliche Bereitstellungskosten gespart.

tablet

Das neue Surface Pro 4

Das Surface Pro 4 ist nicht nur irgendein Tablet, sondern der Spitzenreiter unter der Vielzahl an verschiedenen Tablets. Das Display hat eine Zollgröße von 12,3 Zoll und ein Gewicht von 800 Gramm. Bezieht man die Tastatur mit ein, kommt man auf ein Gewicht von 1105 Gramm. Das Display hat eine Auflösung von 2736×1824 Pixeln. Somit lassen sich für den Nutzer Bilder oder auch Videos in einer sehr hohen Qualität wiedergeben.

Das Surface Pro 4 kommt in verschiedenen Ausstattungen daher. Es beginnt mit einem Intel Core M3 Prozessor und einer Festplatte von 128 Gigabyte. Der Preis hierfür läge bei 999 Euro. Das beste Modell ist mit einer 512 GB Festplatte, einem Arbeitsspeicher von 16 GB und einem Intel Core I7 Prozessor ausgestattet. Somit ist es nicht nur ein Tablet, sondern, ein kompletter Notebookersatz.

Für Studenten und Architekten, aber auch dem normalen Nutzer bietet es sich hervorragent an, denn ich kann nicht nur aufgrund des Stiftes der im Lieferumfang enthalten ist, wunderbar mit dem Tablet schreiben, sondern auch präzise zeichnen. Da es leichter und kleiner als ein herkömmliches Notebook ist, kann man es flexibel zu Hause, aber auch unterwegs nutzen.

Zudem ist ein überrangender Akku mit einer Laufzeit von ca. 8- 10 Stunden bei normalem Gebrauch verbaut. Außerdem besitzt das Tablet einen integrierten Tabletständer der sich in verschiedene Positionen auf der Rückseite aufklappen lässt. Eine Tastatur lässt sich auch individuell an das Surface Pro 4 per Magnet andocken. So kann man auch bei Bedarf einen längeren Text aufsetzen, ohne nur direkt mit dem Display arbeiten zu müssen. Die dazugehörige Tastatur gibt es in verschieden Farben wie z.B. Schwarz, Rot, Blau, Hellblau oder Purple. Der Preis der Tastatur ist unterschiedlich, je nach Farbe und Anbieter. Er liegt bei ca. 117,99 Euro.

Wenn man das Surface Pro 4 mit anderen Herstellern vergleicht, wie z.B. Samsung oder auch Apple, schneidet das Surface von den technischen Daten wie Display und Prozessorgeschwindigkeit am besten ab. Natürlich hat es auch je nach Ausstattungswunsch einen stolzen Preis, der aber aufgrund der Technik und Ausstattung irgendwie auch gerechtfertigt ist. Wenn man beruflich viel unterwegs ist und produktiv arbeiten möchte, dann bietet das Surface Pro 4 für den Verwender tollle Arbeitsmöglichkeiten. Besonders die Stifteingabe hat viele Vorteile und macht das Arbeiten mit einem Tablet sinnvoller, da auch grafisch anspruchsvolle Arbeiten gut gelingen, denn es sind sehr viele verschiedene Druckpunkte die von dem Stift erkannt werden.

Abschließend kann man sagen, dass das Surface in vielen Punkten den anderen Tablets überlegen ist.