• 100% unabhängig
  • 100% kostenlos

Typo3 Webhoster – Welche Anforderungen sollten erfüllt werden?

16. Juli 2018 Keine Kommentare
Typo3 Webhoster – Welche Anforderungen sollten erfüllt werden?

Mit Typo3 können als einmaliges Werkzeug schnell und professionell hochqualitative Webseiten mithilfe neuester Technologie erstellt werden. An den Webhoster stellt diese Software recht große Anforderungen. Bevor die Entscheidung vom Verbraucher auf einen Webhoster fällt, ist es wichtig, den Webhoster Anbieter auf die Typo3 Funktion zu überprüfen. Herkömmliche Webhoster können häufig bei hoher Flexibilität, einfache Erweiterungen und Einsatz neuester Software zum Erstellen und Programmieren mit Typo3 nicht mithalten. Allerdings erfüllen viele Webhosting Anbieter mit ausreichend Grundvoraussetzungen für Typo3 den Standard. Benötigt werden dafür eine aktuelle PHP-Installation und eine Datenbank, die zügig Benutzeranfragen verarbeiten kann. Diesbezüglich kommt es für die umfangreiche Funktion von Typo3 häufig zu Problemen. Damit viele Nutzer gleichzeitig Typo3 flüssig ausführen können, werden von einem Typo3 Webhoster mindestens 256 MB RAM verlangt. Einige wichtige Funktionen und Erweiterungen von Typo3 kommen ohne einige Anpassungen an die Standard PHP-Installation auf dem Server aus. Dadurch hat sich insbesondere die flüssige Darstellung verbessert. Die wichtigsten Softwares dafür sind ImageMagick, die Bibliotheken Gdlib und zlib. Diese Eigenschaften sind besonders wichtig, wenn die gesamten umfangreichen Funktionen genutzt werden sollen. Besondere Anforderungen an den Webhoster für Typo3: • Aktuelle PHP Installation • Eine Datenbank, die Anfragen von Benutzer ausreichend schnell verarbeitet Wie den richtigen Typo3 Webhoster finden? Viele Anbieter vermieten im Internet Webspace und Typo3 Funktionen sind angeblich gleich inbegriffen. Diese Angebote sollten professionelle Nutzer miteinander vergleichen und auf Typo3 Funktionsfähigkeit überprüfen. Unerfahrene Nutzer beeindruckt natürlich die lange Liste mit den angeblich vorhandenen Typo3 Funktionen. Bei solch einer Liste handelt es sich hauptsächlich um Funktionen und Features. Diese stehen als Standard bei jedem Webhoster zur Verfügung und stellen keine Besonderheit dar. Als Verbraucher sollte besonders auf die mögliche Höchstbelastung der Server geachtet werden. Steigt die eigene Webseite an Beliebtheit, sollte vom Typo3 Webhoster als Alternative ein Zahlungsmodell angeboten...


Ansehen

AT&T Airgig – Die 5 wichtigsten Dinge, die zu beachten sind

15. März 2018 Keine Kommentare
AT&T Airgig – Die 5 wichtigsten Dinge, die zu beachten sind

AT&T Airgig – Die 5 wichtigsten Dinge, die zu beachten sind In Deutschland geht der Ausbau „schnelles Internet“ in ländlichen Gegenden schwerlich voran. Der Grund sind hauptsächlich finanzielle Gründe: Denn für Unternehmen ist es oftmals nicht lohnenswert, in Gegenden mit ungenügend potentiellen Kunden die Infrastruktur auszubauen. Die Kalkulation würde allerdings anders aussehen, wenn der Transport vom Internetsignal deutlich günstiger in ländliche Gegenden wäre. Wie funktioniert die von AT&T Airgig entwickelte Technik? Die vorhandenen Stromleitungen müssten für eine Übertragung gar nicht genutzt werden, stattdessen nur ein Anbringen kleiner Antennen an den Masten. Dadurch wird das Signal mithilfe elektromagnetischer Wellen übertragen. Allerdings müsste von einer Antenne zur nächsten eine Sichtverbindung bestehen. Durch die Höhe der Strommasten und bereits vorhandene Verbindung über die Stromkabel ist damit eine Sichtverbindung vorhanden. Übertragungsgeschwindigkeiten – welche sind zu erreichen? Laut Konzern sollen Übertragungsgeschwindigkeiten bis zu einem Gigabit in der Sekunde möglich sein. Bei optimalen Testbedingungen wurde diese Geschwindigkeit erreicht. Weitere Tests sollen bei realen Bedingungen zeigen, ob bei verschiedenen Umwelteinflüssen, wie starker Regen oder Nebel, die Geschwindigkeit ebenfalls erreicht wird. Wo ist diese Technologie bereits getestet worden? Erste offizielle Tests wurden bereits vor mehr als einem Jahr durchgeführt und die Ergebnisse inzwischen ausgewertet. Diese waren vielversprechend und weitere Tests werden durchgeführt. Ein Test soll im US-Bundesstaat Georgia, ein anderer außerhalb der Vereinigten Staaten stattfinden. Die gesammelten Daten dienen der Technologie zur weiteren Verbesserung. Vorteile der Funkübertragung über einen Strommast? Für die Funkübertragung sind ein Verlegen von Kabel nicht notwendig und somit keine Tiefbauarbeiten. Dennoch ergeben sich enorme Auswirkungen, denn die Untergrundarbeiten für den Ausbau verursacht extrem hohe Kosten. Zeitpunkt zum großflächigen Einsatz? Laut AT&T ist es zurzeit eine Phase des Experimentierens. Daher kann das Projekt ebenso zu irgendeinem Zeitpunkt einfach enden. Allerdings zeigten sich die ersten Tests vergangenes Jahr recht vielversprechend. Wien arbeitet aktuell daran, per Richtfunk das Internet zu...


Ansehen

Apples Funktion als Datenschützer?

6. Februar 2018 Keine Kommentare
Apples Funktion als Datenschützer?

Apples Funktion als Datenschützer? Verschlüsselung, Tipps für die Sicherheit und Gesichtserkennung. Das neue Update auf iOS 11 und neuem iPhone X zeigt sich Apple ein weiteres Mal als Datenschützer. Der Grund könnte eventuell die NSA-Enthüllungen von Edward Snowden im Sommer 2013 sein. Mit Sicherheit jedoch die Auseinandersetzung mit dem FBI drei Jahre danach. Die Verantwortlichen von Apple erkannten daraufhin, dass Datenschutz wichtig ist und verantwortlich für ein gutes Marketing. Die Themen Verschlüsselung, Weitergabe von Daten und Biometrie sind bei allen Firmen wichtig, und es wird von jedem auf die mutmaßliche Sicherheit der eigenen Hard- und Software hingewiesen. Allerdings öffentlich Position zu beziehen ist in der Technikbranche leider noch sehr selten. Ein Beispiel ist Apple-CEO Tim Cook, der sich weigerte, dem FBI bei der Entsperrung des iPhones eines Attentäters zu unterstützen. Dies kommt bei den Käufern von Geräten und Software gut an und Apple ordnet sich zunehmend als Verteidiger des Datenschutzes und Privatsphäre ein. Ein Unternehmen, das von Kunden keine Daten verkauft, mit Regierungen nicht zusammenarbeitet und Informationen schützt. Des Weiteren den Datenschutz als „grundlegendes Menschenrecht“ versteht, so steht es auf der überarbeiteten Datenschutzseite von Apple. Für Apple Nutzer – neue Tipps zum Datenschutz Für die neue Datenschutz-PR-Offensive ist die von der Zeitpunktwahl nicht zufällig. Das neue iPhone 8 ist jetzt erhältlich, das neue Betriebssystem iOS 11 ebenso. Noch im Oktober soll das iPhone X erscheinen und mit Face ID wird eine neue Technik zur Gesichtserkennung eingeführt, um damit das Telefon künftig zu entsperren. Den Nutzern werden mit dem Vorstellen dieser Neuerungen von Apple, aktualisierte Informationen über Datenerfassung und deren Weitergabe geliefert. Es kommen viele persönliche und zum Teil sensible Daten auf dem Smartphone an, zum Beispiel über Siri die Spracherkennung, das Aufzeichnen von Fitnessdaten über das iPhone oder Apple Watch, dem automatischen Analysieren von Fotos und dem Tracking im Browser oder in Apps. Die Nutzer sollen zum einen sensibilisiert werden und zum anderen erfahren, die eigene Privatsphäre zu verwalten. Die neue Webseite hält die Tipps ziemlich allgemein: Das heißt, eine sichere PIN, für Apple Store ein langes Passwort, Zweifaktorauthentifizierung und das Aufpassen vor Phishing. Apple weist darauf hin, dass die Daten vom Nutzer und deren Standort über ein iPhone oder iPad immer mit Apples Servern übertragen werden können. Ebenso Dateien über iCloud, sofern dies vom Nutzer nicht deaktiviert wird. Ebenso erklärt Apple, wie das Ad-Tracking im Browser auszuschalten ist und privat surft. Des Weiteren, wie die neue „Anti-Polizei-Taste“ zu nutzen ist, damit biometrische Funktionen – Fingerabdrucksensor – sogar in der Hosentasche schnell zu deaktivieren sind. Persönliche Erlebnisse – jedoch keine persönliche Daten Auf der Apple Seite war von den Hinweisen bereits vorher viel zu erfahren. Dagegen ist „differential privacy“ neu, denn dieses soll private Erlebnisse ohne persönliche Daten ermöglichen. Im vergangenen Jahr wurde das Konzept bereits auf der Konferenz für Entwickler vorgestellt, allerdings ist diese Technik bereits seit längerer Zeit bekannt. Bevor Apple die Daten seiner Nutzer prüft, werden diese mit zufälligen Daten angereichert und durch Grundrauschen verschleiert. Somit können vom Nutzer keine Rückschlüsse auf das Verhalten gezogen werden,...


Ansehen

DNSSEC: Schlüsselwechsel in der Root-Zone von ICANN verschoben

23. Januar 2018 Keine Kommentare
DNSSEC: Schlüsselwechsel in der Root-Zone von ICANN verschoben

Der kryptografische Schlüssel, der das Domain-Name-System weltweit schützt, muss trotz langer Vorbereitung verschoben werden. Andernfalls droht der Ausfall vom Internetdienst für jeden vierten Nutzer. Das Auswechseln des DNSSEC-Hauptschlüssels sollte bereits am 11. Oktober 2017 planmäßig ausgeführt werden. Der DNSSEC-Hauptschlüssel schützt das Domain-Name-System (DNS) gegen Manipulation und deshalb enorm wichtig. Die Internet Corporation for Assigned Names and Numbers (ICANN) teilte mit, der Tausch wird wahrscheinlich im ersten Quartal 2018 stattfinden. Eventuell ergibt sich eine weitere Verschiebung, damit die ICANN möglichst alle Nutzer einen störungsfreien DNS-Betrieb bieten kann. Für manche Beobachter kommt dieser Schritt sicherlich unerwartet. Die ICANN verwaltet die obersten DNS-Server (DNS-Root-Zone) und der Schlüsseltausch wurde präzise und von langer Hand vorbereitet. Ein großer Teil der Provider spielen hier nicht mit und der Schlüssel wurde bisher nicht aktualisiert. Hätte der Schlüsseltausch planmäßig am 11. Oktober stattgefunden, könnte der DNS-Dienst für zu viele Internetnutzer jetzt gestört sein, das bedeutet, dass sich einige Webseiten nicht mehr öffnen lassen. Diese Verschiebung will ICANN nutzen, um die Provider anzusprechen, die noch nicht getauscht haben. Fast 750 Millionen Betroffene Öffentlich ist seit dem 11. Juli der neue Schlüssel für Jeden (Key Signing Key der Root-Zone) erhältlich. Den aktuellen DNS-Resolver wird den Root-Servern bei üblichen DNS-Anfragen mitgeteilt, welcher Schlüssel genutzt wird und die ICANN wertet die Log-ins der DNS-Root-Server mit diesen Information aus. Nach diesen Ergebnissen ist es möglich, dass der DNS-Dienst weltweit bei jedem vierten Internetnutzer ausfällt, da kein DNS-Resolver seines Providers den aktuellen Root-KSK verwendet. Es wird von 750 Millionen potenziell Betroffenen gesprochen. Verschiedene Gründe erschweren die Aktualisierung bei einigen Resolverbetreibern. Eine Möglichkeit: Die Software wurde nicht wie erforderlich konfiguriert, obwohl viele DNS-Resolver den neuen Schlüssel automatisch beziehen können. Laut der ICANN macht ein Resolver dies zurzeit nicht und die Ursache ist noch nicht bekannt. Von der ICANN wird der Name vom betroffenen Resolver nicht genannt. Ältere Unboundversionen, die nach dem 11. Juli neu installiert wurden, scheiterten bei der automatischen Aktualisierung. Allerdings ist das Problem in der aktuellen Unboundversion behoben. Schlüsseltausch – Handreichungen Der ICANN hat eine Webseite eingerichtet, auf der Betreiber selbst prüfen können, ob Ihr Resolver den neuen Schlüssel verwendet. Falls dies nicht gelingt, ist unter dem Thema DNSSEC für viele gängige Resolver aufgeführt, woran der Schlüsseltausch scheitern und das Problem gelöst werden...


Ansehen

Google schützt vor DDoS-Attacken

10. Januar 2018 Keine Kommentare
Google schützt vor DDoS-Attacken

Websites von politischen Gegnern werden von Hacker immer öfter angegriffen. Gegen diese Übergriffe bietet Google jetzt Hilfe an. Der Rechner vom Bundestag wurde erst kürzlich erneut zu hacken versucht. Des Weiteren hatte der Geheimdienstausschuss des US-Senats vor Versuchen aus Russland vor Beeinflussung der Wahlen in Frankreich und Deutschland gewarnt. Die Niederlande verabschiedete sich vorsichtshalber bei der Wahl Mitte März von dem elektronischen Verfahren und zählte wieder per Hand aus. Dennoch gab es vor den Wahlen auf gegnerische Webseiten Angriffe mit Denial-of-Service-Attacken (DDoS), also eine vorsätzlich herbeigeführte Überlastung. Ein weiterer Beweis, dass ein vorsätzliches Ausschalten unbeliebter Stimmen überall geschieht und nicht nur in Gegenden, wo die Meinungsfreiheit nicht sehr hoch ist. Für diese Zeiten wird von Google die eigene Thinktank für Cyber-Altruismus mit dem Namen „Jigsaw“, eine Auswahl von digitalen Werkzeugen, vorgestellt. Damit sollen unabhängige Nachrichtenseiten, Beobachtungsorganisationen für Wahlen und Menschenrechtsgruppen vor der Ad-hoc-Zensur via DDoS geschützt werden. In dem Werkzeugkasten Namens „Protect your Election“ befindet sich die Zweifaktorauthentifizierung. Diese ist wohl hinlänglich bekannt, jedoch kaum genutzt. Damit wird durch eine zusätzliche Sicherheitsebene das eigene Nutzerkonto geschützt. Ebenso die Browsererweiterung „Password Alert“, diese warnt davor, auf gefälschten Webseiten das eigene Passwort einzugeben. Die dritte Komponente ist der Kern des Programms: das „Project Shield“ und ein recht wirkungsvoller Schutz vor DDoS-Attacken. Allerdings wird nicht verraten, wie Project Shield eigentlich funktioniert. Dafür wird ein sogenannter „reverse proxy“ verwendet, der Datenverkehr läuft zunächst über die Google Server und dabei werden schadhafte Anfragen herausgefiltert. Für kleinere Betreiber von Webseiten eine große Hilfe. Denn solche Angriffe werden immer einfacher und günstiger, der Schaden hinterlässt stets in die Höhe treibende Summen. Das klingt zunächst ganz furchteinflößend, lässt allerdings einige Fragen offen: Ob und welche Auswahlkriterien sind für das Teilhaben an dem Programm vorhanden? Von wem wird bestimmt, wer „die Guten“ oder „die Bösen“ sind? Wird es einem internationalen Großkonzern überlassen, nach eigenem Ermessen zu wählen, wer diesen Schutz...


Ansehen

Fertigstellung von PostgreSQL 10

8. Januar 2018 Keine Kommentare
Fertigstellung von PostgreSQL 10

An der Open-Source-Datenbank sind Erweiterungen und logische Replikation wesentliche Neuerungen der parallelen Queries. Das Team widmete sich den Themen Sicherheit und Zuverlässigkeit. Nach fünfmonatiger Betaphase und Ende September veröffentlichten Release Candidate scheint PostgreSQL 10 nun stabil genug für den Release-Status zu sein. Ein entscheidender Punkt bei der Entwicklung war die optimierte Verteilung von Daten auf verschieden Knoten und damit ist der schnelle Zugriff, die Verwaltung und Analyse gewährleistet. Dabei handelt es sich um effiziente Aufteilung und geeignete Algorithmen nach der Strategie „Teile und herrsche“. Logische Replikation Dazu hat die sogenannte logische Replikation (Logical Replication) unter Verwendung vom Publish-Subscribe-Modell beigetragen und überträgt keine Daten wie bei der physischen Replikation Byte-weise. Vom Publisher-Knoten werden geänderte Daten verteilt, und diese übernehmen ein oder mehrere Subsciber Nodes. Möglich ist sogar eine kaskadierende Replikation, dabei sind in dem Fall die Empfänger selbst Publisher. Mit der logischen Replikation sollen sich inkrementelle Änderungen besser übertragen lassen, und das System verschickt Änderungen zum Zeitpunkt ihres Auftretens. Auch die Interoperabilität unterschiedlicher PostgreSQL-Versionen lässt sich gut umsetzen, da die logische im Gegensatz zur physischen Replikation unabhängig vom Speicherformat funktioniert. Für synchrone ReplikatioPostgreSQL wird des Weiteren Quorom Commit eingeführt, damit wird das empfangen der Erfolgsbestätigung von Remote Replikas flexibler gestaltet. Daneben verkürzen sich Ausfallzeiten durch das Wartungsfenster. Administratoren können damit darstellen, dass Daten als sicher geschrieben gelten, sobald eine ausreichende Zahl von Replikas eine erfolgreiche Änderung melden. Parallele Queries und Partitionierung erweitert Bereits vorhanden sind bei den Parallele Queries von PostgreSQL bereits die seit Herbst 2016 erschienene Version 9.6. Des Weiteren wird die Arbeitsweise auf Index- und Bitmapscans sowie Merge Joins erweitert. Nicht-korrelierende Sub-Queries parallel laufen damit nicht parallel ab. Das Team erweiterte außerdem den Einsatz der parallelen Abfragen bei prozeduralen Funktionen. Darüber wurden die Möglichkeiten zum Partitionieren ergänzt. Hinzu kamen Bereichs- und Listenpartitionierung als eigene Datenbankobjekte: Der Befehl PARTITION OF parent_table FOR VALUES partition_bound_spec erzeugt als Partition Tabellen der Elterntabelle und Entwickler müssen für die Partitionierung nicht mehr auf Vererbung zurückgreifen. Weiterhin bringt PostgreSQL erweiterte Sicherheitsfeatures, zum Beispiel die SCRAM-Authentifizierung (Salted Challenge Response Authentication Mechanism), direkt über SCRAM-SHA-256 (RFC 7677). Die Datenintegrität soll durch weitere Neuerungen sicherstellen und verhindern, dass beim Schreiben keine Widersprüche entstehen. Clients können mit dem Failover-Konzept über libpq eine Verbindung mit einigen Hosts versuchen und diese zum ersten verfügbaren Host...


Ansehen