• 100% unabhängig
  • 100% kostenlos

Webhosting vergleich Blog


AT&T Airgig – Die 5 wichtigsten Dinge, die zu beachten sind


AT&T Airgig – Die 5 wichtigsten Dinge, die zu beachten sind
AT&T Airgig – Die 5 wichtigsten Dinge, die zu beachten sind In Deutschland geht der Ausbau „schnelles Internet“ in ländlichen Gegenden schwerlich voran. Der Grund sind hauptsächlich finanzielle Gründe: Denn für Unternehmen ist es oftmals nicht lohnenswert, in Gegenden mit ungenügend potentiellen Kunden die Infrastruktur auszubauen. Die Kalkulation würde allerdings anders aussehen, wenn der Transport vom Internetsignal deutlich günstiger in ländliche Gegenden wäre. Wie funktioniert die von AT&T Airgig entwickelte Technik? Die vorhandenen Stromleitungen müssten für eine Übertragung gar nicht genutzt werden, stattdessen nur ein Anbringen kleiner Antennen an den Masten. Dadurch wird das Signal mithilfe elektromagnetischer Wellen übertragen. Allerdings müsste von einer Antenne zur nächsten eine Sichtverbindung bestehen. Durch die Höhe der Strommasten und bereits vorhandene Verbindung über die Stromkabel ist damit eine Sichtverbindung vorhanden. Übertragungsgeschwindigkeiten – welche sind zu erreichen? Laut Konzern sollen Übertragungsgeschwindigkeiten bis zu einem Gigabit in der Sekunde möglich sein. Bei optimalen Testbedingungen wurde diese Geschwindigkeit erreicht. Weitere Tests sollen bei realen Bedingungen zeigen, ob bei verschiedenen Umwelteinflüssen, wie starker Regen oder Nebel, die Geschwindigkeit ebenfalls erreicht wird. Wo ist diese Technologie bereits getestet worden? Erste offizielle Tests wurden bereits vor mehr als einem Jahr durchgeführt und die Ergebnisse inzwischen ausgewertet. Diese waren vielversprechend und weitere Tests werden durchgeführt. Ein Test soll im US-Bundesstaat Georgia, ein anderer außerhalb der Vereinigten Staaten stattfinden. Die gesammelten Daten dienen der Technologie zur weiteren Verbesserung. Vorteile der Funkübertragung über einen Strommast? Für die Funkübertragung sind ein Verlegen von Kabel nicht notwendig und somit keine Tiefbauarbeiten. Dennoch ergeben sich... Artikel lesen

Allgemein

Apples Funktion als Datenschützer?


Apples Funktion als Datenschützer?
Apples Funktion als Datenschützer? Verschlüsselung, Tipps für die Sicherheit und Gesichtserkennung. Das neue Update auf iOS 11 und neuem iPhone X zeigt sich Apple ein weiteres Mal als Datenschützer. Der Grund könnte eventuell die NSA-Enthüllungen von Edward Snowden im Sommer 2013 sein. Mit Sicherheit jedoch die Auseinandersetzung mit dem FBI drei Jahre danach. Die Verantwortlichen von Apple erkannten daraufhin, dass Datenschutz wichtig ist und verantwortlich für ein gutes Marketing. Die Themen Verschlüsselung, Weitergabe von Daten und Biometrie sind bei allen Firmen wichtig, und es wird von jedem auf die mutmaßliche Sicherheit der eigenen Hard- und Software hingewiesen. Allerdings öffentlich Position zu beziehen ist in der Technikbranche leider noch sehr selten. Ein Beispiel ist Apple-CEO Tim Cook, der sich weigerte, dem FBI bei der Entsperrung des iPhones eines Attentäters zu unterstützen. Dies kommt bei den Käufern von Geräten und Software gut an und Apple ordnet sich zunehmend als Verteidiger des Datenschutzes und Privatsphäre ein. Ein Unternehmen, das von Kunden keine Daten verkauft, mit Regierungen nicht zusammenarbeitet und Informationen schützt. Des Weiteren den Datenschutz als „grundlegendes Menschenrecht“ versteht, so steht es auf der überarbeiteten Datenschutzseite von Apple. Für Apple Nutzer – neue Tipps zum Datenschutz Für die neue Datenschutz-PR-Offensive ist die von der Zeitpunktwahl nicht zufällig. Das neue iPhone 8 ist jetzt erhältlich, das neue Betriebssystem iOS 11 ebenso. Noch im Oktober soll das iPhone X erscheinen und mit Face ID wird eine neue Technik zur Gesichtserkennung eingeführt, um damit das Telefon künftig zu entsperren. Den Nutzern werden mit dem Vorstellen... Artikel lesen

Allgemein

DNSSEC: Schlüsselwechsel in der Root-Zone von ICANN verschoben


DNSSEC: Schlüsselwechsel in der Root-Zone von ICANN verschoben
Der kryptografische Schlüssel, der das Domain-Name-System weltweit schützt, muss trotz langer Vorbereitung verschoben werden. Andernfalls droht der Ausfall vom Internetdienst für jeden vierten Nutzer. Das Auswechseln des DNSSEC-Hauptschlüssels sollte bereits am 11. Oktober 2017 planmäßig ausgeführt werden. Der DNSSEC-Hauptschlüssel schützt das Domain-Name-System (DNS) gegen Manipulation und deshalb enorm wichtig. Die Internet Corporation for Assigned Names and Numbers (ICANN) teilte mit, der Tausch wird wahrscheinlich im ersten Quartal 2018 stattfinden. Eventuell ergibt sich eine weitere Verschiebung, damit die ICANN möglichst alle Nutzer einen störungsfreien DNS-Betrieb bieten kann. Für manche Beobachter kommt dieser Schritt sicherlich unerwartet. Die ICANN verwaltet die obersten DNS-Server (DNS-Root-Zone) und der Schlüsseltausch wurde präzise und von langer Hand vorbereitet. Ein großer Teil der Provider spielen hier nicht mit und der Schlüssel wurde bisher nicht aktualisiert. Hätte der Schlüsseltausch planmäßig am 11. Oktober stattgefunden, könnte der DNS-Dienst für zu viele Internetnutzer jetzt gestört sein, das bedeutet, dass sich einige Webseiten nicht mehr öffnen lassen. Diese Verschiebung will ICANN nutzen, um die Provider anzusprechen, die noch nicht getauscht haben. Fast 750 Millionen Betroffene Öffentlich ist seit dem 11. Juli der neue Schlüssel für Jeden (Key Signing Key der Root-Zone) erhältlich. Den aktuellen DNS-Resolver wird den Root-Servern bei üblichen DNS-Anfragen mitgeteilt, welcher Schlüssel genutzt wird und die ICANN wertet die Log-ins der DNS-Root-Server mit diesen Information aus. Nach diesen Ergebnissen ist es möglich, dass der DNS-Dienst weltweit bei jedem vierten Internetnutzer ausfällt, da kein DNS-Resolver seines Providers den aktuellen Root-KSK verwendet. Es wird von 750 Millionen potenziell Betroffenen gesprochen. Verschiedene... Artikel lesen

Allgemein

Google schützt vor DDoS-Attacken


Google schützt vor DDoS-Attacken
Websites von politischen Gegnern werden von Hacker immer öfter angegriffen. Gegen diese Übergriffe bietet Google jetzt Hilfe an. Der Rechner vom Bundestag wurde erst kürzlich erneut zu hacken versucht. Des Weiteren hatte der Geheimdienstausschuss des US-Senats vor Versuchen aus Russland vor Beeinflussung der Wahlen in Frankreich und Deutschland gewarnt. Die Niederlande verabschiedete sich vorsichtshalber bei der Wahl Mitte März von dem elektronischen Verfahren und zählte wieder per Hand aus. Dennoch gab es vor den Wahlen auf gegnerische Webseiten Angriffe mit Denial-of-Service-Attacken (DDoS), also eine vorsätzlich herbeigeführte Überlastung. Ein weiterer Beweis, dass ein vorsätzliches Ausschalten unbeliebter Stimmen überall geschieht und nicht nur in Gegenden, wo die Meinungsfreiheit nicht sehr hoch ist. Für diese Zeiten wird von Google die eigene Thinktank für Cyber-Altruismus mit dem Namen „Jigsaw“, eine Auswahl von digitalen Werkzeugen, vorgestellt. Damit sollen unabhängige Nachrichtenseiten, Beobachtungsorganisationen für Wahlen und Menschenrechtsgruppen vor der Ad-hoc-Zensur via DDoS geschützt werden. In dem Werkzeugkasten Namens „Protect your Election“ befindet sich die Zweifaktorauthentifizierung. Diese ist wohl hinlänglich bekannt, jedoch kaum genutzt. Damit wird durch eine zusätzliche Sicherheitsebene das eigene Nutzerkonto geschützt. Ebenso die Browsererweiterung „Password Alert“, diese warnt davor, auf gefälschten Webseiten das eigene Passwort einzugeben. Die dritte Komponente ist der Kern des Programms: das „Project Shield“ und ein recht wirkungsvoller Schutz vor DDoS-Attacken. Allerdings wird nicht verraten, wie Project Shield eigentlich funktioniert. Dafür wird ein sogenannter „reverse proxy“ verwendet, der Datenverkehr läuft zunächst über die Google Server und dabei werden schadhafte Anfragen herausgefiltert. Für kleinere Betreiber von Webseiten eine große Hilfe. Denn solche... Artikel lesen

Allgemein

Fertigstellung von PostgreSQL 10


Fertigstellung von PostgreSQL 10
An der Open-Source-Datenbank sind Erweiterungen und logische Replikation wesentliche Neuerungen der parallelen Queries. Das Team widmete sich den Themen Sicherheit und Zuverlässigkeit. Nach fünfmonatiger Betaphase und Ende September veröffentlichten Release Candidate scheint PostgreSQL 10 nun stabil genug für den Release-Status zu sein. Ein entscheidender Punkt bei der Entwicklung war die optimierte Verteilung von Daten auf verschieden Knoten und damit ist der schnelle Zugriff, die Verwaltung und Analyse gewährleistet. Dabei handelt es sich um effiziente Aufteilung und geeignete Algorithmen nach der Strategie „Teile und herrsche“. Logische Replikation Dazu hat die sogenannte logische Replikation (Logical Replication) unter Verwendung vom Publish-Subscribe-Modell beigetragen und überträgt keine Daten wie bei der physischen Replikation Byte-weise. Vom Publisher-Knoten werden geänderte Daten verteilt, und diese übernehmen ein oder mehrere Subsciber Nodes. Möglich ist sogar eine kaskadierende Replikation, dabei sind in dem Fall die Empfänger selbst Publisher. Mit der logischen Replikation sollen sich inkrementelle Änderungen besser übertragen lassen, und das System verschickt Änderungen zum Zeitpunkt ihres Auftretens. Auch die Interoperabilität unterschiedlicher PostgreSQL-Versionen lässt sich gut umsetzen, da die logische im Gegensatz zur physischen Replikation unabhängig vom Speicherformat funktioniert. Für synchrone ReplikatioPostgreSQL wird des Weiteren Quorom Commit eingeführt, damit wird das empfangen der Erfolgsbestätigung von Remote Replikas flexibler gestaltet. Daneben verkürzen sich Ausfallzeiten durch das Wartungsfenster. Administratoren können damit darstellen, dass Daten als sicher geschrieben gelten, sobald eine ausreichende Zahl von Replikas eine erfolgreiche Änderung melden. Parallele Queries und Partitionierung erweitert Bereits vorhanden sind bei den Parallele Queries von PostgreSQL bereits die seit Herbst 2016 erschienene Version 9.6. Des... Artikel lesen

Allgemein

Was ist Webspace?


Was ist Webspace?
  Vereinfacht ausgedrückt wird hiermit der Platz benannt, den sich ein Webseitenbetreiber auf einem Server von einem Hostinganbieter anmietet um damit seine Webseite online stellen zu können. Hostinganbieter die einen oder mehrere Server betreiben vermieten Teile des Gesamtspeichers an Webseitenbetreiber was dann als Webspace (Speicherplatz) bezeichnet wird. Je nach Geammtangebot des Hosters kann dieser Platz kostenlos sein, was dann als Free-Webspace bezeichnet wird und betrifft in der Regel kleine unbedeutende Webseiten. Geschäftliche Webseiten müssen für diesen Webspace bezahlen, erhalten dafür aber auch bessere Leistungen, mehr Platz um eigene Skripte darzustellen, Webbanner und Werbefenster einzubringen. Etwas genauer gesagt handelt es sich hier um einen „Lagerplatz“ für Unmengen an Daten, die zwar über eine URL weltweit abgerufen und eingesehen werden können, aber für deren Veränderungen lediglich berechtigte Personen Zugang haben. Im Prinzip ist mit Webspace immer das gleiche gemeint, die entscheidenden Unterschiede sind Servergeschwindigkeit, der zu Verfügung gestellte Platz, Erreichbarkeit, serverseitige Optionen wie ASP oder Perl und auch PHP, Unterhalt und Wartung und somit auch der Preis. Der ganze Datentransfer wird natürlich über das Internet abgewickelt, das heisst eine Webseite wird via Internet auf den Server überspielt und ist recht einfach, vergleichbar mit einem Bild versenden. Der Unterschied besteht darin, dass nicht einzelne Bilder oder Texte überspielt werden sondern ganze Datenpakete in Form von Files, was in der Fachsprache File Transfer Protocol (FTP) genannt wird, was auch umgekehrt funktioniert, es können ganze Files runtergeladen werden. Über FTP können Verzeichnisse angelegt, Verzeichnisse können auch gelöscht oder im Bedarfsfall auch umbenannt werden, das... Artikel lesen

Allgemein