Importieren eines Archivs

Überblick

Backup & Archive ermöglicht das Importieren archivierter Daten aus anderen Sicherungsanwendungen in AWS S3-Buckets. Diese Anleitung beschreibt die Importverfahren sowie die erforderlichen Verzeichnis- und Dateistrukturen.

circle-info

Archive können nur aus einem AWS S3-Bucket.

Import starten

1

Einen Import erstellen

  1. Klicken Sie Backup & Archive im linken Seitenleistenmenü.

  2. Klicken Sie auf Organisationsumschalter im Breadcrumb-Pfad.

  3. Wählen Sie die Organisation aus, in die Sie importieren möchten.

  4. Klicken Sie Archiv importieren.

2

S3-Bucket verbinden

Der Importvorgang kann nur ein Archiv aus einem AWS S3-Bucket importieren.

  1. Geben Sie einen Namen für den Importauftrag ein.

  2. Geben Sie die Bucket-Einstellungen Werte ein. Siehe die folgende Tabelle für eine Erklärung der einzelnen Felder.

Feld
AWS-Feld

Bucket-Name

Amazon S3 > Buckets > Namen

Region

Amazon S3 > Buckets > AWS-Region (Geben Sie nur den Region und nicht den Regionsnamenein. Zum Beispiel, wenn Ihr Speicher in US East (N. Virginia) us-east-1liegt, geben Sie nur us-east-1.)

Access Key Id

Die Access Key ID wurde erzeugt, als der Bucket erstellt wurde.

Secret Access Key

Die Secret Access Key wurde erzeugt, als der Bucket erstellt wurde.

  1. Klicken Sie Validieren um die Verbindung zu Ihrem S3-Bucket zu prüfen.

  2. Wenn die Verbindung zu Ihrem Bucket erfolgreich ist, erhalten Sie eine Bucket-Anmeldeinformationen sind gültig Meldung, und die Weiter Schaltfläche wird aktiviert.

  3. Klicken Sie Weiter.

3

Präfix eingeben

Die Präfix Einstellung wird verwendet, um mit anders strukturierten Archiven umzugehen. Sie können Verzeichnisse mit verschachtelten Strukturen wie im folgenden Beispiel importieren:

s3://my_bucket/
├── 00DWU000001IVG52AO/
│   └── nested/
│       └── path/
│           └── in/
│               └── bucket/
│                   └── export-directory_2024-7-29_17_5/
│                       ├── archive_export_1.zip
│                       ... andere Dateien

├── {other_org_id}/
... andere Verzeichnisse
circle-info

Es gibt kein Verzeichnis-Konzept im AWS S3-Bucket. Wir verwenden das / Zeichen als Trennzeichen.

  1. Geben Sie den Ordnerpfad zu Ihren Importdateien in das Präfix Textfeld ein.

4

Daten auswählen und importieren

Backup & Archive listet Verzeichnisse auf, die mit dem Verzeichnis beginnen, das nach Ihrer Salesforce-Organisations-ID benannt ist. Siehe das folgende Strukturbeispiel:

00DWU000001IVG52AO/
├── archive_directory/
│   ├── archive_export.zip
├── archive_directory_1/
│   ├── archive_export.zip
│   └── archive_export_1.zip
... andere Verzeichnisse

Mit der obenstehenden Beispielstruktur werden Ihnen die folgenden Verzeichnisse zur Auswahl für den Import angezeigt.

  • archive_directory/

  • archive_directory_1/

Weitere Informationen zur Importverzeichnisstruktur finden Sie im Importieren eines Archivs folgenden Abschnitt.

circle-info

Wenn Sie mehrere Verzeichnisse auswählen, wird jedes als separater Auftrag verarbeitet und nacheinander ausgeführt. Wenn Sie beispielsweise zwei Archivverzeichnisse auswählen, wird zuerst das erste und anschließend das zweite importiert.

  1. Klicken Sie Wählen Sie für jedes Archivverzeichnis aus, das importiert werden soll.

  2. Klicken Sie Importieren um den Importvorgang zu starten.

  3. Nachdem der Importauftrag gestartet wurde, können Sie die Ergebnisse auf der Backup & Archive > Verlauf Registerkarte anzeigen.

Verzeichnisstruktur

Um archivierte Daten erfolgreich in Flosum Backup & Archive zu importieren, muss Ihre Importdaten eine bestimmte Verzeichnisstruktur aufweisen. Das folgende Beispiel zeigt die erforderliche Struktur.

In diesem Beispiel haben Sie einen S3-Bucket namens my_bucket und eine Salesforce-Organisation mit der ID 00DWU000001IVG52AO. Um archivierte Daten aus dieser Organisation in die Backup & Archive-Anwendung zu importieren, ist die folgende Verzeichnisstruktur erforderlich.

s3://my_bucket/
└── 00DWU000001IVG52AO/
    ├── export-directory_2024-7-29_17_5/
    │   └── archive_export_1.zip
    └── export-directory_2024-8-30_18_10/
        ├── archive_export_1.zip
        ├── archive_export_2.zip
        └── archived_files/
              ├── Attachment/
              │   ├── 00P5x00001Koqb6EAB/
              │   │   └── attachment_body.pdf
              │   └── 00P5x00001Koqb6EAB/
              │       └── attachment_body.csv
              └── ContentVersion/
                  ├── 0685x00000AsY5aAAF/
                  │   └── content_version_body.pdf
                  └── 0685x00000AsY5bAAF/
                      └── content_version_body.csv

Mit der obigen Verzeichnisstruktur listet die Archiv importieren > Daten auswählen UI-Oberfläche zwei Verzeichnisse auf, die zum Import verfügbar sind:

  • export-directory_2024-7-29_17_5/

  • export-directory_2024-8-30_18_10/

Zip-Dateien

Jedes Verzeichnis sollte eine ZIP-Datei enthalten, die mit archive_exportvoreingestellt ist. Dateien mit anderen Präfixen werden ignoriert. Jede ZIP-Datei sollte Verzeichnisse und .csv-Dateien enthalten. Siehe das folgende Beispiel einer akzeptablen ZIP-Dateistruktur.

Importverarbeitung

Wenn ein Importauftrag verarbeitet wird, werden alle .zip-Dateien in den ausgewählten Verzeichnissen entpackt und die .csv-Dateien verarbeitet.

Für dieses Beispiel werden s3://my_bucket/ und archive_export_1.zip aus den obigen Beispielen verwendet, um zu erklären, wie ein Import verarbeitet wird. Die Verarbeitung von archive_export_1.zip erstellt Datensätze in der Backup & Archive-Anwendung für die Objekte Task und Case. Wenn eine .zip-Datei ein binäres Objekt enthält, befindet sich dessen Inhalt im archived_files/ Verzeichnis und wird mithilfe der Datensatz-ID zur Auffindung des Inhalts verwendet.

Beim Verarbeiten von archive_export_1.zip aus dem export-directory_2024-8-30_18_10/ Verzeichnis, um die Datei Attachment/Attachment_1.csv und einen Datensatz mit der ID 0685x00000AsY5bAAFzu finden, sollten Sie sie im S3-Bucket mithilfe des Musters lokalisieren:

Zum Beispiel:

Wenn an diesem Pfad nichts vorhanden ist, wird der Datensatz nicht importiert. Beachten Sie, dass das tmp/ Verzeichnis unter s3://{bucket_name}/{ord_id}/{export_directory_name}/archived_files/{object_api_name}/{record_id}/ ignoriert wird.

Zuletzt aktualisiert

War das hilfreich?