Importación de un archivo

Descripción general

Backup & Archive le permite importar datos archivados desde otras aplicaciones de copia de seguridad a buckets de AWS S3. Esta guía describe los procedimientos de importación y las estructuras de directorios y archivos requeridas.

circle-info

Los archivos solo se pueden importar desde un Bucket de AWS S3.

Iniciar una importación

1

Crear una importación

  1. Haga clic Backup & Archive en el menú lateral izquierdo.

  2. Haga clic en el Selector de organización en la ruta de migas de pan.

  3. Seleccione la organización a la que desea importar.

  4. Haga clic Importar archivo.

2

Conectar bucket S3

El proceso de importación solo puede importar un archivo desde un bucket de AWS S3.

  1. Ingrese un Nombre para el trabajo de importación.

  2. Ingrese la Configuración del bucket valores. Consulte la tabla a continuación para una explicación de cada uno.

Campo
Campo de AWS

Nombre del bucket

Amazon S3 > Buckets > Nombre

Región

Amazon S3 > Buckets > Región de AWS (Incluya sólo el Región y no el Nombre de la región. Por ejemplo, si su almacenamiento está en US East (N. Virginia) us-east-1, sólo introduzca us-east-1.)

ID de clave de acceso

El ID de clave de acceso generado cuando se creó el bucket.

Clave de acceso secreta

El Clave de acceso secreta generado cuando se creó el bucket.

  1. Haga clic Validar para comprobar la conexión con su bucket S3.

  2. Si la conexión con su bucket tiene éxito, recibirá un Las credenciales del bucket son válidas mensaje, y el Siguiente botón se habilitará.

  3. Haga clic Siguiente.

3

Ingrese prefijo

El Prefijo la configuración se usa para manejar archivos estructurados de forma diferente. Puede importar directorios con estructuras anidadas como el siguiente ejemplo:

s3://my_bucket/
├── 00DWU000001IVG52AO/
│   └── nested/
│       └── path/
│           └── in/
│               └── bucket/
│                   └── export-directory_2024-7-29_17_5/
│                       ├── archive_export_1.zip
│                       ... otros archivos

├── {other_org_id}/
... otros directorios
circle-info

No existe algo llamado directorio en el bucket de AWS S3. Usamos el / carácter como delimitador.

  1. Introduzca la ruta de la carpeta a sus archivos de importación en el Prefijo cuadro de texto.

4

Seleccionar datos e importar

Backup & Archive lista los directorios que comienzan con el directorio nombrado según el ID de su organización de Salesforce. Vea el siguiente ejemplo de estructura:

00DWU000001IVG52AO/
├── archive_directory/
│   ├── archive_export.zip
├── archive_directory_1/
│   ├── archive_export.zip
│   └── archive_export_1.zip
... otros directorios

Con la estructura de ejemplo anterior, los siguientes directorios se enumerarán para que los importe.

  • archive_directory/

  • archive_directory_1/

Para obtener más información sobre la estructura del directorio de importación, consulte la Importación de un archivo sección a continuación.

circle-info

Cuando seleccione varios directorios, cada uno se procesa como un trabajo separado y se ejecuta secuencialmente. Por ejemplo, si selecciona dos directorios de archivo, el primero se importa primero, seguido del segundo.

  1. Haga clic Seleccione para cada directorio de archivo que desee importar.

  2. Haga clic Importar para iniciar el proceso de importación.

  3. Después de iniciar el trabajo de importación, puede ver los resultados en la pestaña Backup & Archive > Historial .

Estructura de directorios

Para importar correctamente datos archivados en Flosum Backup & Archive, debe tener una estructura de directorios específica para sus datos de importación. El ejemplo siguiente demuestra la estructura requerida.

En este ejemplo, tiene un bucket S3 llamado my_bucket y una organización de Salesforce con ID 00DWU000001IVG52AO. Para importar datos archivados de esta organización en la aplicación Backup & Archive, la estructura de directorios requerida se muestra a continuación.

s3://my_bucket/
└── 00DWU000001IVG52AO/
    ├── export-directory_2024-7-29_17_5/
    │   └── archive_export_1.zip
    └── export-directory_2024-8-30_18_10/
        ├── archive_export_1.zip
        ├── archive_export_2.zip
        └── archived_files/
              ├── Attachment/
              │   ├── 00P5x00001Koqb6EAB/
              │   │   └── attachment_body.pdf
              │   └── 00P5x00001Koqb6EAB/
              │       └── attachment_body.csv
              └── ContentVersion/
                  ├── 0685x00000AsY5aAAF/
                  │   └── content_version_body.pdf
                  └── 0685x00000AsY5bAAF/
                      └── content_version_body.csv

Con la estructura de directorios anterior, la Importar archivo > pantalla Seleccionar datos listará dos directorios disponibles para importar:

  • export-directory_2024-7-29_17_5/

  • export-directory_2024-8-30_18_10/

Archivos zip

Cada directorio debe incluir un archivo zip con el prefijo archive_export. Los archivos con otros prefijos serán ignorados. Cada archivo zip debe contener directorios y archivos .csv. Vea el siguiente ejemplo de una estructura de archivo zip aceptable.

Procesamiento de importaciones

Cuando se procesa un trabajo de importación, se extraen todos los archivos .zip en los directorios seleccionados y se procesan los archivos .csv.

Para este ejemplo, s3://my_bucket/ y archive_export_1.zip de los ejemplos anteriores se usan para explicar cómo se procesa una importación. El procesamiento de archive_export_1.zip crea registros en la aplicación Backup & Archive para los objetos Task y Case. Si un archivo .zip incluye un objeto binario, su cuerpo se ubica bajo el archived_files/ directorio, usando el ID de registro para localizar el cuerpo.

Al procesar archive_export_1.zip desde el export-directory_2024-8-30_18_10/ directorio, para encontrar el archivo Attachment/Attachment_1.csv y un registro con ID 0685x00000AsY5bAAF, debe localizarlo en el bucket S3 usando el patrón:

Por ejemplo:

Si no existe nada en esta ruta, el registro no se importará. Tenga en cuenta que el tmp/ directorio bajo s3://{bucket_name}/{ord_id}/{export_directory_name}/archived_files/{object_api_name}/{record_id}/ se ignora.

Última actualización

¿Te fue útil?