Frage NAS Raid 5 Recovery mit Hilfe von mdadm: Volume und Mount Probleme, bitte helfen


Hallo, dies ist mein erster Ausflug in Ubuntu, oder irgendeine Form von Linix, genauso wie mein erster Versuch, jemals einen verlorenen Überfall wiederzuerlangen, aber ich bin ein ziemlich schnelles Studium. Ich habe einen 8TB WD Sharespace, vier 2TB Laufwerke, die auf Raid 5 mit zwei "failed" (vielleicht nicht) Laufwerken eingerichtet sind. Ich bin verzweifelt, meine Daten wiederherzustellen. Abgesehen von all der Musik und Filmen und Spielen, sind alle meine Fotos und Heimvideos meiner Kinder auf diesem Ding und ich bin ziemlich verzweifelt, sie wiederzugewinnen. Abgesehen davon, dass ich es vorziehe, Dinge selbst zu machen, kann ich mir keine professionelle Datenwiederherstellung leisten. Ich habe keine Backup-Laufwerke, um meine Originale zu kopieren, und ich kann sie mir nicht leisten, also sitze ich fest und versuche, das selbst mit den Originalplatten zu machen. Jede Hilfe wird geschätzt.

Verzeihen Sie mir, wenn ich das überstehe, weil ich nicht wirklich sicher bin, was relevant ist und was nicht, da ich versuche, das herauszufinden. Ich glaube, dass der Controller in meinem NAS ausgefallen ist und die Daten auf den Laufwerken tatsächlich noch intakt sind. Ich habe alle vier Laufwerke aus dem NAS gezogen und ordne sie in meiner comp meine normalen HDDs getrennt und benutze die Live CD im Probiermodus um Ubuntu zu betreiben. Ich habe versucht, dies bisher mit diesem Leitfaden zu tun: HOWTO: Shareplace RAID 5 Datenrettung, aber ich bin auf dem Weg in ein paar Schwierigkeiten geraten und das gesamte Forum ist geschlossen, so dass ich dort keine Fragen stellen kann.

Das erste, was ich getan habe, war, mich auf den root-Benutzer einzustellen und zu überprüfen, ob alle meine Laufwerke am richtigen Ort waren und erkannt wurden. Verwenden von fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Ich weiß nicht genau, wonach ich suche, aber ich sehe nichts, was irgendwelche roten Fahnen hervorruft, sie sehen alle ziemlich intakt und gesund aus, also fahre ich fort mit dem Versuch, den Raid aus den sd * 4 Partitionen zusammenzusetzen seien Sie diejenigen mit den Daten, um den Überfall wieder aufzubauen.

Ich habe es versucht:

mdadm --assemble /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

aber ich habe einen Fehler über 2 Laufwerke und nicht genug, also begann ich das Internet durchforsten und erfuhr, dass es ein Force-Kommando gab, also habe ich es benutzt:

mdadm --assemble --force /dev/md0 /dev/sda4 /dev/sdb4 /dev/sdc4 /dev/sdd4

und das schien zu funktionieren. YAY! ... irgendwie ...

vgscan

No volume groups found

Boo ... Als ich das Internet durchforstete, fand ich einen Post, in dem jemand ein ähnliches Problem hatte und musste sein Volume und lokale Gruppen neu erstellen, um erfolgreich auf ihre Daten zugreifen zu können. Unter Verwendung der Namen für die Volumengruppen und lokalen Gruppen aus der Anleitung, die ich verwendet habe, habe ich sie mit den neuen Befehlen erstellt, die ich gefunden habe:

vgcreate vg0 /dev/md0

und

lvcreate -L5.45T -n lv0 vg0

beide berichteten, geschaffen zu sein, und alles schien gut in der Welt. Bis ich zurück zu meinem Guide ging, versuchte ich es zu mounten:

mkdir /mnt/raid
mount -t auto /dev/vg0/lv0 /mnt/raid
mount: you must specify the filesystem type

Anscheinend funktioniert "auto" nicht wie der Führer sagte. Ich habe ein paar Dateisystemtypen ext3 und ext 4 gefunden, also habe ich sie auch probiert:

mount -t ext3 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

und

mount -t ext4 /dev/vg0/lv0 /mnt/raid
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg0-lv0,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

Wie Sie sehen können, hat keiner gearbeitet ... Nach einigen Stunden der Suche bin ich zu dem Schluss gekommen, dass ich wirklich um Hilfe bitten muss. Wenn jemand irgendwelche Vorschläge oder Ratschläge hat oder noch besser weiß, wie es funktioniert, würde ich die Einsicht wirklich schätzen. Wenn ich etwas falsch gemacht habe, wäre das auch wirklich gut zu wissen.

Ich dachte, das könnte auch nützlich sein:

mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Thu Dec 10 05:44:29 2009
     Raid Level : raid5
     Array Size : 5854981248 (5583.75 GiB 5995.50 GB)
  Used Dev Size : 1951660416 (1861.25 GiB 1998.50 GB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Apr  4 08:12:03 2013
          State : clean, degraded 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : dd69553d:5c832cf7:9755c9c8:d208511e
         Events : 0.3986045

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       20        1      active sync   /dev/sdb4
       2       8       36        2      active sync   /dev/sdc4
       3       0        0        3      removed

so gut wie das:

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sda4[0] sdc4[2] sdb4[1]
      5854981248 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]

unused devices: <none>

So sieht mein fdisk -l jetzt aus, nachdem ich mit all dem herumgespielt habe:

fdisk -l

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      417689      208844+  fd  Linux raid autodetect
/dev/sda2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sda3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sda4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdb2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdb3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdb4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdc2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdc3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdc4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1      417689      208844+  fd  Linux raid autodetect
/dev/sdd2          417690     2506139     1044225   fd  Linux raid autodetect
/dev/sdd3         2506140     2923829      208845   fd  Linux raid autodetect
/dev/sdd4         2923830  3907024064  1952050117+  fd  Linux raid autodetect

Disk /dev/md0: 5995.5 GB, 5995500797952 bytes
2 heads, 4 sectors/track, 1463745312 cylinders, total 11709962496 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/mapper/vg0-lv0: 5992.3 GB, 5992339210240 bytes
255 heads, 63 sectors/track, 728527 cylinders, total 11703787520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Disk /dev/mapper/vg0-lv0 doesn't contain a valid partition table

Bitte denken Sie daran, dass ich immer noch neu in diesem Bereich bin, daher wäre es sehr zu begrüßen, wenn ein Ratgeber ein grundlegendes Verständnis dafür hätte, warum Sie Ihren Vorschlag machen. Es wird mir helfen, mehr von dem zu verstehen, was ich mache. Vielen Dank!


1
2018-04-04 17:21


Ursprung


Keinesfalls Salz in eine Wunde einmassieren, aber ist Ihnen klar, dass bei 2 fehlgeschlagenen Laufwerken auf RAID 5 keine Garantie besteht, dass Sie Ihre Daten zurückbekommen? RAID 5 hilft nur bei einem Ausfall einzelner Festplatten. Danach müssen Sie die Festplatte ersetzen und neu erstellen oder die Festplatte ersetzen, das Array neu erstellen und aus der Sicherung wiederherstellen. - Hennes
Danke für Ihre Antwort. Ja, mir ist bewusst, dass zwei tatsächlich fehlgeschlagene Laufwerke bedeutet, dass es Toast ist, aber es sei denn, dass etwas von den Informationen, die ich zur Verfügung gestellt habe, dass ich das nicht verstehe, glaube ich, dass die Daten auf den Laufwerken ist in Ordnung und das NAS selbst, von dem ich glaube, dass es fehlerhaft ist, hat sie schlecht markiert, so dass sie auf diese Weise auftauchen. Wenn ich falsch liege, wäre ich dankbar für eine Erklärung, wo die Information liegt, dass die Laufwerke selbst tatsächlich schlecht sind. - Nelliana Calvert


Antworten:


Von den Informationen, die Sie zur Verfügung gestellt haben, halte ich es für wahrscheinlich, dass die überwiegende Mehrheit Ihrer Daten intakt bleibt. An dieser Stelle handelt es sich um ein defektes RAID-Array. Offensichtlich nicht dort, wo du sein willst, aber auch nicht am Ende der Welt.

Nach meiner Erfahrung mit ShareSpace-Einheiten wird normalerweise ein Laufwerk aus dem Array fallen, lange bevor das RAID tatsächlich abstürzt. Das Linux-Software-RAID-System erkennt den ersten Laufwerksfehler und schaltet das Array in den eingeschränkten Modus um. Dies bedeutet, dass das Array weiterhin funktioniert, aber es nur die drei verbleibenden guten Laufwerke verwendet. Die Dinge scheinen für eine gewisse Zeit normal zu funktionieren, bis ein zweites Laufwerk aus dem Array ausfällt. Dann stürzt das RAID ab und Sie haben ein Problem.

Diese Laufwerke fallen aus einem bestimmten Grund aus. Normalerweise sind es schlechte Sektoren. Glücklicherweise ist eine Genesung sehr oft möglich. Sie müssen jedoch vorsichtig vorgehen, da Fehlschritte, die Sie vornehmen, die Wahrscheinlichkeit einer Datenwiederherstellung verringern.

Wenn Sie alleine arbeiten möchten, rate ich Ihnen, Backup-Images zu erstellen, bevor Sie fortfahren. Ich weiß, einfacher gesagt als getan mit vier 2TB Laufwerken. Aber Sie müssten nur drei von ihnen / dev / sda, / dev / sdb und / dev / sdc sichern.

Oder wenn Sie Hilfe benötigen, bin ich ein Online-Datenrettungsberater. Und ich führe Remote-NAS / RAID-Datenwiederherstellung über das Internet für Kunden weltweit durch. In der Vergangenheit habe ich viele erfolgreiche Remote-WD-ShareSpace-Datenwiederherstellungsvorgänge durchgeführt. Ich biete sowohl Remote-Datenwiederherstellung als auch Do-It-Yourself-Datenwiederherstellung an. Wenn Sie mögen, würde ich glücklich sein, Ihnen zu helfen. Kontaktieren Sie mich über meine Website. Mein Name ist Stephen Haran und meine Site ist http://www.FreeDataRecovery.us


1
2018-04-06 17:44



Danke für Ihre Antwort. Genau das ist mir passiert. Die erste Fahrt ging hoch, aber ich konnte mir keinen Ersatz leisten und so musste ich eine Weile im degradierten Modus laufen und es stürzte schließlich. Vielen Dank, dass Sie meinen Verdacht bestätigt haben. Ich fühle mich viel besser, weil ich weiß, dass meine Daten höchstwahrscheinlich wiederherstellbar sind. Danke für die Ruhe. - Nelliana Calvert


Update: Alle meine Daten konnten dank Stephen wiederhergestellt werden. Ich empfehle seinen Service, wenn jemand Hilfe bei jeder Art von Datenrettung benötigt. http://www.FreeDataRecovery.us


0
2018-06-19 00:00