V
Volker Bartheld
Guest
On Tue, 05 Feb 2019 12:21:16 +0100, Ralph A. Schmid, dk5ras wrote:
Wie wird er denn geprüft beim Booten? So wie Non-ECC-RAM vom BIOS im
"Quick"-Modus? Oder eher wie im "Extended"-Modus? Oder gar so, wie es
c't-Ramtest tut? Und was wäre dann der fundamentale Unterschied zu einem
PC, dessen RAM die Daten manchmal nicht halten kann?
Und wenn Scheiße _nicht_ passieren würde, bräuchte wir weder ECC-RAM, noch
irgendwelche RAID-Level, Prüfsummen, Backups oder sonstwelche Vorkehrungen
zur Erhöhung der Datensicherheit.
Es gibt tatsächlich erstaunlich vieles.
Du kannst Dir ein zertifiziertes, nicht total auf Kante gebügeltes
Server-Motherboard mit ECC-RAM in ein elektrisch gut abgeschirmtes
Fort-Knox-Gehäuse einbauen, darauf ein OS mit Bitrot-sensibilisiertem
Dateisystem installieren, dessen Sourcecode in unabhängigen Reviews auf
Herz und Nieren geprüft wurde.
Der Prozessor hat hoffentlich kein Problem mit Spectre/Meltdown und
unterstützt DEP/das NX-Bit. Dortdrinnen bringst Du (mindestens) fünf
Massenspeicher an den Start, drei SSDs von unterschiedlichen Chargen
unterschiedlicher Hersteller und zusätzlich noch Dreheisen.
Austausch/Migration in regelmäßigen Zeitabschnitten, nicht erst, wenn
SMART mit der roten Fahne wedelt.
Daten werden sebstverständlich in versionierenden Repositories abgelegt
(SVN, GIT) und das Backup erfolgt mehrkanalig rotierend z. B. via NAS,
Cloud, externe USB-Laufwerke, usw., regelmäßige Kontrolle der dabei
erzeugten Hashes sind natürlich ebenso Pflicht wie die Unterbringung von
mindestens zwei Kopien in räumlich getrennten, explosions-/feuer- und
fremdzugriffsgeschützten Panzerschränken.
In Sachen "Benutzermanagement" trennst Du strikt zwischen Administrator und
sonstigen Rollen, lebst den Gedanken von Elevation und "so wenig Rechte wie
möglich, so viele Rechte wie nötig", testest jegliche Software zunächst auf
Herz und Nieren in einer Virtualisierungsumgebung und sorgst dafür, daß Du
bei jedem Softwareupdate eine Kopie des früheren Installers zu
Referenzzwecken aufhebst, damit Du die Daten bei möglichen
Inkompatibilitäten mit der Applikation aufmachen kannst, die sie originär
erzeugt hat.
Damit ließe sich schon ordentlich arbeiten. Entscheide selbst, wie weit Du
gehen willst. Letztlich kann man Sicherheit in einem Maße steigern, daß
sie nur noch durch die praktische Unbenutzbarkeit des System gegeben ist,
wie sich im digitalen Zahlungsverkehr (Mehrfaktorauthentisierung, PIN/TAN,
Sicherheitsabfragen, Captchas, usw.) schon abzeichnet. Dann sinkt die
Akzeptanz rapide ab und man verständigt sich recht fix auf die
individuelle Wohlfühlgrenze, da - allen anderslautenden Parolen unserer
Politiker zum Trotz, Sicherheit kein Selbstzweck ist.
Volker
Volker Bartheld <news2018@bartheld.net> wrote:
Und die DSP-Baugruppe hat keinen RAM? Nicht einmal irgendeinen Puffer? Und
Doch, der wird aber geprüft beim Booten.
Wie wird er denn geprüft beim Booten? So wie Non-ECC-RAM vom BIOS im
"Quick"-Modus? Oder eher wie im "Extended"-Modus? Oder gar so, wie es
c't-Ramtest tut? Und was wäre dann der fundamentale Unterschied zu einem
PC, dessen RAM die Daten manchmal nicht halten kann?
Nein, keine Utopie. Genau so anno 2001 in der VIA-Soutbridge 82C686B
passiert: https://www.heise.de/newsticker/meldung/VIA-Chipsatz-beschaedigt-Daten-35848.html
Klar, shit happens, das ist nix Neues
Und wenn Scheiße _nicht_ passieren würde, bräuchte wir weder ECC-RAM, noch
irgendwelche RAID-Level, Prüfsummen, Backups oder sonstwelche Vorkehrungen
zur Erhöhung der Datensicherheit.
Es ist halt so, wie einer meiner Vorredner schon kundgetan hat: Man
definiert seinen Ponyhof in Sachen Datensicherheit/-integrität. Dann
schaut man auf den Kostenfaktor und ist u. U. relativ plötzlich bereit,
deutliche Abstriche zu machen.
So schaut es aus - oder auch rein, was technisch machbar ist. Wenn es
was nicht gibt, dann gibt es das eben nicht.
Es gibt tatsächlich erstaunlich vieles.
Du kannst Dir ein zertifiziertes, nicht total auf Kante gebügeltes
Server-Motherboard mit ECC-RAM in ein elektrisch gut abgeschirmtes
Fort-Knox-Gehäuse einbauen, darauf ein OS mit Bitrot-sensibilisiertem
Dateisystem installieren, dessen Sourcecode in unabhängigen Reviews auf
Herz und Nieren geprüft wurde.
Der Prozessor hat hoffentlich kein Problem mit Spectre/Meltdown und
unterstützt DEP/das NX-Bit. Dortdrinnen bringst Du (mindestens) fünf
Massenspeicher an den Start, drei SSDs von unterschiedlichen Chargen
unterschiedlicher Hersteller und zusätzlich noch Dreheisen.
Austausch/Migration in regelmäßigen Zeitabschnitten, nicht erst, wenn
SMART mit der roten Fahne wedelt.
Daten werden sebstverständlich in versionierenden Repositories abgelegt
(SVN, GIT) und das Backup erfolgt mehrkanalig rotierend z. B. via NAS,
Cloud, externe USB-Laufwerke, usw., regelmäßige Kontrolle der dabei
erzeugten Hashes sind natürlich ebenso Pflicht wie die Unterbringung von
mindestens zwei Kopien in räumlich getrennten, explosions-/feuer- und
fremdzugriffsgeschützten Panzerschränken.
In Sachen "Benutzermanagement" trennst Du strikt zwischen Administrator und
sonstigen Rollen, lebst den Gedanken von Elevation und "so wenig Rechte wie
möglich, so viele Rechte wie nötig", testest jegliche Software zunächst auf
Herz und Nieren in einer Virtualisierungsumgebung und sorgst dafür, daß Du
bei jedem Softwareupdate eine Kopie des früheren Installers zu
Referenzzwecken aufhebst, damit Du die Daten bei möglichen
Inkompatibilitäten mit der Applikation aufmachen kannst, die sie originär
erzeugt hat.
Damit ließe sich schon ordentlich arbeiten. Entscheide selbst, wie weit Du
gehen willst. Letztlich kann man Sicherheit in einem Maße steigern, daß
sie nur noch durch die praktische Unbenutzbarkeit des System gegeben ist,
wie sich im digitalen Zahlungsverkehr (Mehrfaktorauthentisierung, PIN/TAN,
Sicherheitsabfragen, Captchas, usw.) schon abzeichnet. Dann sinkt die
Akzeptanz rapide ab und man verständigt sich recht fix auf die
individuelle Wohlfühlgrenze, da - allen anderslautenden Parolen unserer
Politiker zum Trotz, Sicherheit kein Selbstzweck ist.
Volker