데이터 락커—광고주용

요약: 데이터 락커는 리포트 데이터를 BI 시스템에 로드하기 위해 클라우드 스토리지에 전송합니다. 사용자는 AWS의 앱스플라이어 소유 버킷, AWSGCS 의 사용자 소유 스토리지, Snowflake의 다양한 스토리지 대상 중에서 선택할 수 있습니다. 데이터 락커는 다중 대상을 지원합니다. 즉, 모든 데이터를 다중 대상으로 보내거나 대상별로 데이터를 분리하거나 이 두 가지를 조합할 수 있습니다. 각 대상에 대해 Parquet 또는 CSV 형식을 선택합니다. 

Data Locker

6133DataLockerForAdvertisers.png

 관련 자료:

데이터 락커에서 앱스플라이어가 선택한 클라우드 스토리지 옵션에 전송하는 데이터에 포함할 앱, 미디어 소스, 이벤트 및 리포트를 선택합니다. 그런 다음 스토리지에서 시스템으로 프로그래밍으로 데이터를 로드합니다. 

데이터 락커—기능

기능 설명
스토리지 옵션(클라우드)

데이터 락커는 데이터를 다음 클라우드 서비스 제공업체에 전송할 수 있습니다.

데이터 락커에서 1개 이상의 대상을 설정할 수 있습니다. 즉, 데이터의 전체 또는 일부를 다중 대상 으로 전송할 수 있습니다.

예시

  • 리포트 유형별로 데이터를 분리합니다. 로데이터를 GCS로 전송하고 데이터를 Snowflake로 집계합니다.
  • 앱별로 데이터를 분리하고 앱 그룹별로 데이터를 다른 버킷으로 보냅니다. 
멀티 앱 

계정에 있는 1개, 그 이상, 또는 모든 앱의 데이터를 전송합니다. 앱을 계정에 추가하면 자동으로 포함될 수 있습니다. 

사용가능 기간

14일

데이터 분리

사용 가능한 데이터 분리 옵션

  • [기본값] 통합: 모든 앱의 데이터가 결합되었습니다. 행 수준 앱 ID 필드는 데이터 파일에서 앱을 식별하는 데 사용됩니다. 
  • 앱으로 분리: 각 앱의 데이터는 별도의 폴더에 있습니다. 폴더 이름은 앱 ID로 구성됩니다. 
데이터 형식 옵션
  • CSV
  • PARQUET
데이터 최신성

최신성은 리포트 유형에 따라 다릅니다. 

  • 시간별: 데이터는 연속적으로 생성됩니다. 예를 들어 인스톨 및 인앱 이벤트 데이터는 이벤트가 앱스플라이어에 도착한 후 몇 시간 이내에 기록됩니다. 
  • 일별: 앱 삭제와 같은 리포트는 매일 생성되며 다음 날 사용할 수 있습니다. 
  • 버전별: 동일한 기간 동안 동일한 리포트가 여러 번 생성되는 경우 사용할 버전 관리 메커니즘이 마련되어 있습니다. 
빅쿼리 및 Google Data Studio

데이터를 GCS 스토리지에 기록하면 중간 처리 없이 빅쿼리가 데이터 락커 파일을 직접 로드할 수 있습니다. Google Data Studio와 같은 빅 쿼리의 다른 도구를 사용하여 데이터를 시각화할 수 있습니다. 

데이터 락커를 통해 사용 가능한 리포트.

데이터 스토리지 아키텍처

개요

스토리지의 데이터 구조는 데이터를 클라우드 스토리지로 전송하는지 또는 데이터 웨어하우스로 전송하는지에 따라 다릅니다. 여기에 설명한 폴더 구조는 스토리지(버킷)에 적용됩니다. 데이터 웨어하우스 스토리지(Snowflake)의 경우 폴더에 대한 참조가 보기에 적용됨을 고려합니다. Snowflake를 참조하십시오. 

데이터는 선택한 스토리지 옵션에 따라 기록됩니다. 클라우드 스토리지의 경우, 스토리지는 AWS상에서 앱스플라이어가 소유하고 있거나 AWS 또는 GCS에서 소유하고 있습니다. 언제든지 스토리지 옵션을 전환하거나 데이터의 일부 또는 전체를 여러 스토리지 옵션으로 전송할 수 있습니다. 

저장소의 데이터는 리포트 유형, 날짜 및 시간에 따라 계층 폴더 구조체로 구성됩니다. 다음 그림은 이 구조의 예를 표시합니다.

DLFolderOVerview.png

지정된 리포트의 데이터는 해당 리포트와 연결된 시간(h) 폴더에 포함됩니다.

  • 시간 폴더 수는 리포트 데이터 새로 고침(시간별, 일별 또는 버전별)에 따라 달라집니다.
  • 데이터는 Parquet 또는 CSV 형식의 GZ 압축 파일로 제공됩니다.
  • 데이터 파일은 열(필드)로 구성됩니다. 
  • 사용자 여정 리포트의 스키마(필드) 구조는 동일하며 사용자가 선택한 필드에 따라 달라집니다. 다른 리포트에는 각각 고유한 명시적 필드인 AKA 스키마리스 리포트가 포함됩니다. 사용 가능한 리포트와 리포트 사양에 대한 링크는 데이터 락커 광고주 리포트를 참조하십시오. 

폴더 구조

폴더 설명 
구독 ID

DataLockerFolders.png

  • 버킷의 최상위 폴더는 스토리지 담당자 및 제공업체에 따라 다릅니다. 일반적으로 최상위 폴더는 구독 ID이지만, 예를 들어 Cyberduck을 사용하는 경우 ID가 북마크에 설정되고 폴더 구조에 표시되지 않는 경우가 있습니다. 
  • data-locker-hourly 폴더에는 리포트 주제가 포함되어 있습니다. 이 수준 이상의 폴더는 버킷 소유권 및 클라우드 서비스 제공자에 따라 다릅니다.

 버킷 소유자 및 클라우드 제공자에 기반한 폴더 구조 예시

  • 앱스플라이어 버킷: <af-ext-reports>/<unique_identifier>/<data-locker-hourly>
  • AWS 버킷: <af-datalocker-your bucket prefix>/<generated-home-folder><subscription-id>
  • GCS 버킷: <your bucket name>/<generated-home-folder>/<subscription-id>
주제(t) 리포트 유형은 리포트의 주제와 관련됩니다. 
날짜(dt)

이는 관련 데이터 날짜입니다. 로데이터의 경우 이벤트가 발생한 날짜를 의미합니다. 집약형 데이터의 경우 바로 리포트 날짜입니다. 

시간(h 또는 버전)

리포트 유형에 따라 날짜 폴더가 시간별(h) 또는 버전 폴더로 구분됩니다. 

시간별 폴더

h 폴더는 앱스플라이어가 데이터를 수신한 시간과 관련됩니다. 예를 들어, 14:00-15:00 UTC 사이에 수신한 인스톨 이벤트는 h=14 파일에 기록됩니다. 일러두기! 데이터가 앱스플라이어에 도착하는 시점부터 h 폴더가 데이터 락커에 기록될 때까지 약 1-3시간의 지연이 발생합니다. 예를 들어, h=14 폴더는 15:00 UTC에서 1시간 후에 기록됩니다. 

시간별 폴더 특성:

  • 0-23으로 번호가 지정된 24개 시간 폴더가 있습니다. 예를 들어, h= 0, h= 1 등입니다. 
  • 늦은 폴더 h=late는 자정 이후에 도착하는 이전 날의 이벤트를 포함합니다. 이것은 다음 날의 00:00–02:00 UTC에 도착하는 이벤트라는 의미입니다. 예를 들어 사용자가 월요일 08:00 UTC에 앱을 인스톨하고 이벤트가 화요일 01:00 UTC에 도착하면 이벤트는 월요일의 늦은 폴더에 기록됩니다. 
  • 02:00 UTC 이후 도착하는 데이터는 실제 도착 날짜 및 시간의 폴더에 기록됩니다. 
  • h=late인 폴더의 데이터가 사용되는지 확인하십시오. 다른 폴더에는 포함되어 있지 않습니다. 
  • _temporary folder: 경우에 따라 h 폴더 내에 임시 폴더를 생성하는 경우도 있습니다. 임시 폴더 및 하위 폴더는 무시합니다. 예시: /t=impressions/dt=2021-04-11/h=18/_temporary.
  • 일러두기:
    • 일별 데이터 최신성을 가진 로데이터 리포트는 h=23 폴더에 저장됩니다. 앱 삭제 리포트는 일반적으로 h=2 폴더에 있지만 모든 폴더에 있을 수 있습니다. 
    • 코호트 및 증분 리포트는 dt 폴더에 직접 저장됩니다. 
    • 버전별 리포트는 이 섹션에서 설명하는 다른 규칙을 준수합니다. 

UTC 시간을 사용하지 않는 앱에 대한 시간별 리포트 고려 사항.

지정된 달력 요일의 모든 데이터를 얻으려면 앱 시간대에서 정의한 요일에 따라 폴더를 세부적으로 사용해야 합니다. 

  • 서반구 시간대: 지정된 달력 날짜의 모든 데이터를 가져오려면 UTC 시간 및 날짜에 따라 폴더를 사용해야 합니다. 예시: 앱 시간대가 UTC+10(시드니, 오스트레일리아)이라고 하겠습니다. 화요일(시드니)과 관련된 모든 시간별 데이터를 얻으려면 월요일 h=14–23 및 늦음, 화요일 h=0–13 및 14-15 폴더를 사용해야 합니다. 왜 화요일 h=14-15를 사용해야 할까요? 일부 데이터는 늦게 도착할 수 있습니다. 따라서 h=14–15 폴더에는 늦게 도착하는 이벤트가 포함될 수 있습니다. UTC를 기준으로 앱 캘린더 요일에 맞춰 event_time을 필터링해야 합니다. 
  • 서반구 시간대: 지정된 달력 날짜의 모든 데이터를 가져오려면 UTC 시간 및 날짜에 따라 폴더를 사용해야 합니다. 예: 앱 시간대는 UTC- 7(로스앤젤레스)입니다. 화요일(로스앤젤레스)과 관련된 모든 시간별 데이터를 얻으려면 다음 폴더를 사용해야 합니다. 화요일 h=7–23 이후, 수요일 h=0–-6, 7-8입니다. 수요일 h=7-8을 사용해야 하는 이유는 무엇입니까? 일부 데이터는 늦게 도착할 수 있습니다. 따라서 h=7–8 폴더에는 늦게 도착하는 이벤트가 포함될 수 있습니다. UTC를 기준으로 앱 캘린더 요일에 맞춰 event_time을 필터링해야 합니다.

버전 폴더

일부 보고서에는 버전별 옵션이 있습니다. 즉, 주어진 날짜에 대해 최근에 업데이트된 데이터가 여러 번 제공됩니다. 데이터가 늦게 도착하거나 더 정확한 데이터로 인해 데이터가 계속 업데이트될 수 있으므로 동일한 리포트는 최신 버전이 가장 정확한 여러 버전을 가집니다. 

지정된 날짜에 대한 리포트는 해당 날짜의 버전 폴더에 포함됩니다. 각 버전은 리포트를 고유하게 식별하는 Epoch 타임스탬프를 사용하여 이름이 설정된 별도의 폴더에 포함됩니다. 

데이터 가져오기 프로세스에서는 데이터를 소급하여 기록할 수 있다는 점을 고려해야 합니다. 예를 들어 1월 14일에 데이터는 1월 1일 폴더에 쓸 수. 있습니다. 버킷을 소유한 경우 클라우드 서비스 알림을 사용하여 가져오기 프로세스(AWS | GCS)를 트리거합니다.

앱 분리

데이터는 앱에서 선택하거나 폴더로 분리된 모든 앱의 데이터를 포함하는 통합된 데이터 파일로 제공됩니다. 분리는 다음 표에 설명된 대로 h 폴더 내에 있습니다.
분리 유형 설명 
[기본값] 통합

모든 앱의 데이터는 통합된 데이터 파일로 제공됩니다. 데이터를 사용할 때 행 수준 app_id 필드를 사용하여 앱을 구별합니다.

데이터 파일의 예시는 h= 2 폴더에 있습니다.

UnifiedByApp.png

데이터 파일 이름 지정 규칙은 unique_id.gz입니다.

  • 데이터 로딩 프로세스는 다음과 같아야 합니다. 
    • _SUCCESS 플래그가 설정된 다음에 데이터를 로드합니다.
    • .gz 확장자가 있는 폴더의 모든 파일을로드합니다. 부품 번호 지정 논리를 사용하여 가져오기 프로세스를 빌드하지 마십시오. 
앱별로 분리

폴더에는 앱별 서브폴더가 포함됩니다. 지정된 앱의 데이터 파일은 앱 폴더에 포함됩니다. 다음 그림에서 h=19 폴더에는 앱 폴더가 포함됩니다. 각 앱 폴더에는 연관된 데이터 파일이 포함됩니다. 일러두기! 데이터 파일에 app_id가 포함되어 있지 않습니다. 폴더를 사용하여 app_id를 확인해야 합니다. 

DLSegregateByApp.png

각 앱 폴더에서 이름 지정 규칙은 unique_id.gz입니다. 

  • 데이터 로딩 프로세스는 다음과 같아야 합니다. 
    • _SUCCESS 플래그가 설정된 다음에 데이터를 로드합니다.
    • .gz 확장자가 있는 폴더의 모든 파일을로드합니다. 부품 번호 지정 논리를 사용하여 가져오기 프로세스를 빌드하지 마십시오. 

제한 사항: 이 옵션은 사람 기반 어트리뷰션 리포트에 사용할 수 없습니다.

데이터 파일

콘텐츠 상세 내용
완료 플래그

마지막 파일(완료) 플래그는 지정된 h 폴더에 대한 모든 데이터가 기록될 때 설정됩니다. 

  • _SUCCESS 플래그가 존재하는지 확인하기 전에 폴더의 데이터를 읽지 마십시오.

  • _SUCCESS 플래그는 지정된 폴더에 기록할 데이터가 없고 폴더가 비어 있는 경우에도 설정됩니다. 

  • 일러두기! 앱별 구분 옵션에서는 플래그가 개별 앱 폴더가 아닌 h 폴더에 설정됩니다. 이전 절의 그림을 참조하십시오. 
파일 형식
  • 부분 파일은 GZ를 사용하여 압축됩니다.
  • 압축 해제 이후 데이터 파일은 사용자의 설정에 따라 Parquet 또는 CSV 형식을 가집니다.
열 순서(CSV 파일) 

CSV 파일의 경우 리포트의 필드 순서는 항상 동일합니다. 새 필드를 추가하면 기존 필드 오른쪽에 추가됩니다. 

이와 관련하여: 

  • 사용자 여정 리포트의 열 구조는 동일합니다. 따라서 서로 다른 리포트 유형에 대해 유사한 데이터 로드 절차를 수행할 수 있습니다. 리포트에 포함될 필드를 선택합니다. 필드 의미는 로데이터 사전에 자세히 설명되어 있습니다. 
  • 리포트 가용성 섹션에 FF 표기가 있는 리포트는 공통 열 구조를 따르지 않습니다. 
필드 채우기 고려사항

공백 또는 비어 있는 필드: null로 채워지거나 빈 필드가 있을 수 있습니다. 이것은 지정된 리포트의 맥락에서 볼 때 리포트할 데이터가 없음을 의미합니다. 일반적으로 null 은 이 필드가 지정된 리포트 및 앱 유형의 컨텍스트로 채워지지 않음을 의미합니다. 공백 "" 은 필드가 해당 컨텍스트에서 관련이 있지만 채우는 데이터가 없음을 의미합니다. 

제한된 미디어소스의 경우 제한된 필드의 내용이 null로 설정됩니다. 

전체적으로 null과 blank를 동일한 것으로 간주하며 모두 사용할 수 있는 데이터가 없습니다. 

시간대와 통화

앱별 시간대와 통화 설정은 데이터 락커에 기록된 데이터에 영향을 주지 않습니다. 다음 사항이 적용됩니다. 

  • 시간대: 날짜와 시간 데이터는 UTC입니다.
  • 통화: event_revenue_usd 필드는 미국 달러화(USD) 기준입니다.

쉼표를 가진 값: 이 쉼표는 큰따옴표 `"` 사이에 포함되어 있습니다. 예를 들어 `"iPhone6,1"`입니다.

데이터 파일은 분리 유형에 따라 다릅니다.

스토리지 옵션

 주의!

광고주 소유 스토리지 옵션을 사용하는 경우: 

  • GDPR 및 광고 네트워크/SRN 데이터 리텐션 정책과 같은 개인 정보 보호 규정을 준수하는지 확인합니다.
  • 광고주 소유의 스토리지 솔루션을 사용하여 데이터를 타사에 전송하지 마십시오. 
  • 데이터는 다음과 같이 사용자가 선택한 스토리지 소유자에게 기록됩니다.
    • 앱스플라이어 스토리지
    • 고객 스토리지—AWS 또는 GCS
  • 스토리지 선택은 언제든 변경할 수 있습니다.
  • 스토리지를 변경하는 경우 다음 사항이 발생합니다.
    • 새로 선택한 스토리지에 한 시간 이내에 쓰기를 시작할 수 있습니다.
    • 7일의 전환 기간 동안 기존 스토리지에 계속 기록합니다. 전환 기간 만료 시간이 사용자 인터페이스에 표시됩니다. 전환 기간을 사용하여 데이터 로딩 프로세스를 업데이트합니다. 전환 기간을 다시 시작하거나 필요한 경우 앱스플라이어 버킷으로 되돌릴 수 있습니다. 
    • 스토리지 변경 : 다중 스토리지 옵션을 사용하고 동시에 여러 대상에 데이터를 전송하여 한 스토리지 옵션에서 다른 스토리지 옵션으로 마이그레이션할 수 있습니다. 마이그레이션 및 테스트가 완료되면 더 이상 필요하지 않은 스토리지 옵션을 삭제합니다. 
  앱스플라이어 소유 스토리지(AWS)  광고주 소유 스토리지(GCS, AWS, Snowflake)
버켓 이름 앱스플라이어로 설정하기
  • GCS: 제한 없음
  • AWS: 사용자가 설정합니다. 접두사 af-datalocker-가 있어야 합니다.

예시: af-datalocker-your-bucket-name

스토리지 소유권 앱스플라이어 광고주
스토리지 플랫폼 AWS AWS, GCS, Snowflake
사용자가 데이터에 액세스하기 위한 자격 증명 데이터 락커 사용자 인터페이스에서 앱스플라이어 계정 관리자에게 제공 가능 앱스플라이어에는 알려지지 않습니다. 클라우드 제공업체가 제공하는 자격 증명을 사용하십시오.
데이터 보존 데이터는 14일 이후에 삭제됩니다. 광고주 책임
데이터 삭제 요청 앱스플라이어 책임 광고주 책임
보안 앱스플라이어는 스토리지를 제어합니다. 고객은 읽기 액세스 권한을 가집니다.

광고주는 스토리지를 제어합니다.

  • AWS: 앱스플라이어를 사용하려면 버킷에 대한 GetObject, ListBucket, DeleteObject, PutObject 사용 권한이 필요합니다. 버킷은 앱스플라이어 사용 전용이어야 합니다. 다른 목적으로 사용하지 마십시오.
  • GCS: GCS 설정 기사를 참조하십시오.
스토리지 용량 앱스플라이어에서 관리 광고주가 관리
버킷 정책을 포함한 VPC 엔드 포인트를 사용한 액세스 제어 해당 사항 없음. [선택 사항] AWS에서 버킷 수준에서 VPC 엔드포인트 보안을 구현하는 경우 앱스플라이어 서버 목록을 허용해야 합니다. 

고객이 관리하는 스토리지의 경우 보안 담당자에게 알리십시오.

유의사항:

  • 버킷 또는 대상은 앱스플라이어 전용입니다. 지정된 대상에 쓰는 다른 엔터티가 없어야 합니다.
  • 데이터를 작성한 후 25시간 후에 대상의 데이터를 삭제할 수 있습니다.
  • 대상에 기록된 데이터는 이미 서버에 있는 데이터의 사본입니다. 데이터는 회사 리텐션 정책에 따라 서버에 계속 남아 있습니다. 
  • 기술적인 이유로 데이터를 삭제하고 다시 쓰기도 합니다. 이러한 이유로, 삭제 및 목록 권한이 필요하게 됩니다. 권한은 보안 위험이 아닙니다. 목록의 경우에는 당사만이 버킷에 기록할 수 있습니다. 삭제된 경우에는 데이터를 다시 생성할 수 있습니다.
  • 추가 정보에 대해서는 hello@appsflyer.com 또는 CSM을 통해 당사의 보안 팀에 문의할 수 있습니다.  

다중 연결 원칙(하나 이상의 대상)

데이터 락커에서 데이터의 일부 또는 전체를 둘 이상의 대상(연결 설정에서 정의)으로 보낼 수 있습니다. 예를 들어 앱 A 데이터를 AWS로 보내고 앱 B 데이터를 GCS로 보낼 수 있습니다.

각 연결은 대상을 포함한 완전한 데이터 락커 설정 세트로 구성됩니다. 연결 설정은 서로 독립적입니다.

연결을 관리할 때 다음을 고려하십시오.

  • 데이터 락커 설정에서 연결은 탭에 표시됩니다. 각 연결에는 연결을 관리할 수 있는 자체 설정 탭이 있습니다. 기본 탭은 "데이터 락커"입니다.
  • 새 연결을 생성하는 방법은 다음과 같습니다.
    1. Add Connection(연결 추가)를 클릭합니다.
    2. 연결 이름을 제공하고 스토리지 유형을 선택합니다.
    3. 저장을 클릭합니다.
      저장되면 기본 "데이터 락커" 탭 옆에 연결이 표시됩니다. 각 탭의 아이콘은 스토리지 유형을 나타냅니다.
  • 연결 내용을 확인하거나 연결을 복제하거나 연결을 삭제하려면 ⋮(옵션)을 클릭하십시오.

절차

데이터 락커 설정

상기 절차를 사용하여 데이터 락커를 설정합니다. 데이터 락커에 적용한 모든 변경 사항이 적용되는 데 최대 3시간이 소요됩니다. 

선행 조건

광고주 소유 스토리지 설정 방법:

광고주 소유의 스토리지, 즉 사용자 소유의 버킷을 사용하여 데이터 락커를 설정하는 경우 다음 절차 중 하나를 지금 완료하십시오. 

  • 사용자의 AWS 버킷.
  • 사용자의 GCS 버킷.

일러두기! 데이터 락커 구독이 없고 코호트 분석 또는 SKAN 데이터에 액세스하는 경우 광고주 소유 스토리지 절차를 완료해야 합니다. 

AppsFlyerAdmin_us-en.png데이터 락커 설정 방법:

  1. 관리자가 설정을 수행해야 합니다. 
  2. 앱스플라이어에서 연동 > 데이터 락커로 이동합니다. 
  3. [선택 사항] 활성 데이터 락커 대상이 이미 있고 대상을 추가하려면 +를 클릭합니다. 
  4. 클라우드 서비스 데이터 목적지 선택. 다음 중 하나를 수행합니다.
    • 앱스플라이어 AWS 버킷을 선택합니다(데이터 락커 구독자만 사용할 수 있는 옵션). 4단계로 계속 진행하십시오. 
    • 사용자의 AWS 버킷을 선택합니다.
      1. AWS 버킷 이름을 입력하십시오. 접두사 af-datalocker-를 입력하지 마십시오.
      2. 테스트를 클릭합니다.
      3. 버킷 경로가 잘못되었다는 오류 메시지가 표시되지 않는지 확인하십시오.
    • GCS 버킷을 선택한 다음 GCS 버킷 이름을 입력하고 마지막으로 테스트를 클릭하십시오. 
  5. 폴더 구조(데이터 분리)를 선택합니다.
    • [기본값] 통합
    • 앱별로 분리
  6. 파일 형식 선택:
    • [기본값] Parquet
    • CSV
  7. 필요한 앱을 선택하십시오. 나중에 추가된 앱을 자동으로 포함하려면 모두를 선택하십시오.
  8. Apply(적용하기)를 클릭합니다. 
  9. [선택 사항] 미디어소스: 리포트에 포함할 하나 이상의 미디어소스를 선택합니다.
    • 기본값=All. 이것은 향후 추가될 미디어소스도 자동으로 포함하는 것을 의미합니다.
  10. 필수 리포트 유형을 선택하십시오. 최소 1개를 선택해야 합니다. 
  11. [선택 사항] 인앱 이벤트: 포함할 인앱 이벤트를 선택합니다. 만약 100개 이상의 인앱 이벤트 유형을 갖고 있다면, 검색을 통해 찾을 수 없습니다. 이름을 정확하게 입력하여 인앱 이벤트 유형을 선택하십시오. 
    • 기본값=All. 이것은 향후 추가될 인앱 이벤트도 자동으로 포함하는 것을 의미합니다.
  12. Apply(적용하기)를 클릭합니다. 
  13. [선택 사항] 필드: 보고서에 포함할 필드를 선택하십시오. 참고: 때때로 우리는 추가적인 필드를 만듭니다. 데이터 가져오기 프로세스에서 이 점을 고려하십시오.
  14. 구성 저장을 클릭합니다. 다음 중 하나가 발생합니다.
    • 앱스플라이어 AWS 버킷을 선택한 경우:
      • 전용 AWS 버킷이 생성됩니다. 버킷 인증 정보가 표시됩니다.
      • 인증 정보를 통해 버킷에 액세스할 수 있습니다. 인증 정보는 버킷에 대한 읽기 전용 액세스를 제공합니다.
    • 고객 버킷을 선택한 경우: 3시간 내에 데이터가 버킷에 기록됩니다. 

자격 증명 재설정

관리자는 언제든 앱스플라이어 버킷 자격 증명을 재설정할 수 있습니다. 일러두기! 사용자가 자격 증명을 재설정하는 경우 업데이트된 자격 증명과 함께 데이터 가져오기 스크립트를 업데이트해야 합니다.

AppsFlyerAdmin_us-en.png 앱스플라이어 소유 스토리지의 신용 정보를 재설정하려면:

  1. 앱스플라이어에서 연동 > 데이터 락커로 이동합니다. 
  2. 앱스플라이어 소유 대상을 선택합니다.
  3. 자격 증명 섹션에서 자격 증명 재설정을 클릭합니다.
    확인 창이 표시됩니다.
  4. 재설정을 클릭합니다.
  5. 자격 증명 재설정 성공 메시지가 표시될 때까지 기다립니다(약 20초).
    업데이트된 자격 증명을 사용할 수 있습니다.

추가 정보

특성과 제한 사항

특성
항목 참고 
광고 네트워크 광고 네트워크에서는 사용할 수 없습니다.
에이전시 에이전시에서는 사용할 수 없습니다.
앱 별 시간대 해당 사항 없음. 데이터 락커 폴더는 UTC를 사용하는 시간으로 나뉩니다. 실제 이벤트에는 UTC 단위의 시간이 포함됩니다. 필요에 따라 시간을 다른 표준시로 변환합니다. 앱 시간대와 관계없이 이벤트 발생 후 데이터 락커에 기록될 때까지의 지연 시간은 동일하게 유지됩니다.
앱 별 통화  지원 안됨.
사이즈 제한 해당 사항 없음.
데이터 최신성 데이터는 본 기사에서 자세히 설명하는 특정 리포트 데이터의 최신성에 따라 업데이트됩니다. 
과거 데이터 지원 안 됨. 기록 데이터가 필요한 경우에는 Pull API를 통해 일부 리포트를 사용할 수 있습니다.
사용자 액세스 필수 권한을 가진 계정 사용자만 데이터 락커를 설정할 수 있습니다. 
단일 앱/여러 앱 다중 앱 지원. 데이터 락커는 계정 수준에서 적용됩니다.

문제 해결

  • 증상: AWS CLI를 사용하여 데이터를 확보할 수 없습니다.
  • 오류 메시지: ListObjectsV2 조작을 호출하는 동안 오류가 발생했습니다(AccessDenied): 호출이 거부됨
  • 원인: 사용된 AWS 인증 정보가 앱스플라이어 버킷에 대한 올바른 인증 정보가 아닙니다. 사용자 머신에 여러 개의 또는 잘못된 인증 정보를 갖고 있을 때 발생할 수 있습니다. 
  • 해결 방안:
    1. 버킷에 액세스하기 위해, CLI가 아닌 Cyberduck 같은 다른 방법을 사용합니다. 이렇게 하여, 사용 중인 인증 정보가 잘 작동하는지 확인합니다. Cyberduck을 사용하여 연결할 수 있다면, 이것은 인증 정보 캐시에 문제가 있음을 나타냅니다. 
    2. AWS 인증 정보 캐시를 새로 고칩니다.
      AWS 스크린샷

      mceclip0.png

AWS 데이터 검색

선호하는 AWS 데이터 검색 툴인 AWS CLI를 사용하거나 다음 섹션에 설명된 툴 중 하나를 사용하십시오. 일러두기! 정확한 지침은 앱스플라이어 소유 버킷에 적합합니다. 버킷에 연결하는 경우 필요에 따라 지침을 조정하십시오. 

AWS CLI

시작하기 전

  • 컴퓨터에 AWS CLI를 설치합니다.
  • 앱스플라이어에서 데이터 락커로 이동하여, 인증 정보 창에 포함된 정보를 가져옵니다.

AWS CLI를 사용하려면:

  1. 터미널을 엽니다. Windows에서 수행하려면, <Windows>+<R>, 확인을 클릭합니다.
    명령행 창이 열립니다.
  2. aws configure를 입력합니다.
  3. 인증 정보 창에 표시된 대로, AWS Access Key를 입력합니다.
  4. 인증 정보 창에 표시된 대로, AWS Secret Key를 입력합니다.
  5. eu-west-1을 입력합니다.
  6. 엔터를 누릅니다(없음).

필요에 따라, 다음 CLI 명령을 사용합니다.

다음 명령어에서는 {home-folder} 값을 찾을 수 있습니다.

버킷의 폴더를 나열하는 방법은 다음과 같습니다.


aws s3 ls s3://af-ext-reports/{home-folder}/data-locker-hourly/

파일 및 폴더 나열하기

데이터 락커 버킷에는 세 가지 유형의 폴더가 있습니다.

  • 리포트 유형 t=
  • 날짜 dt=
  • 시간 h=

특정 리포트 유형의 모든 보고서를 나열하려면:

aws s3 ls s3://af-ext-reports/{home-folder}/data-locker-hourly/t=installs/

특정 날짜의 특정 리포트 유형의 모든 보고서를 나열하려면:

aws s3 ls s3://af-ext-reports/{home-folder}/data-locker-hourly/t=installs/dt=2019-01-17

특정 날짜, 특정 시간의 특정 리포트 유형의 모든 보고서를 나열하려면:

aws s3 ls s3://af-ext-reports/{home-folder}/data-locker-hourly/t=installs/dt=2019-01-17/h=23

특정 날짜의 파일을 다운로드하는 방법은 다음과 같습니다.


aws s3 cp s3://af-ext-reports/<home-folder>/data-locker-hourly/t=installs/dt=2020-08-01/h=9/part-00000.gz ~/Downloads/

Cyberduck

시작하기 전

  • Cyberduck 클라이언트를 인스톨합니다.
  • 앱스플라이어에서 데이터 락커로 이동하여 인증 정보 창에 포함된 정보를 가져옵니다.

Cyberduck 설정 방법:

  1. Cyberduck에서 액션을 클릭합니다.
  2. 새 북마크를 선택합니다. 창이 열립니다.
  3. 첫 번째 필드에서(아래 스크린샷에서 [1]로 표시됨) Amazon S3을 선택합니다.

    DataDuckSmall2.png

  4. 다음과 같이 필드를 완성합니다.
    • Nickname: 자유 텍스트
    • 서버: s3.amazonaws.com
    • Access Key ID: 앱스플라이어 인증 정보 창에 표시된 AWS Access Key를 복사합니다.
    • Secret Access Key: 앱스플라이어 인증 정보 창에 표시된 Bucket Secret key를 복사합니다.
    • 경로: {Bucket Name}/{Home Folder} 예시: af-ext-reports/1234-abc-ffffffff
  5. 창을 닫습니다. 이것은 창의 우측 상단 모서리의 X를 사용합니다.
  6. 연결을 선택합니다.
    데이터 디렉토리가 표시됩니다.

Amazon S3 browser

시작하기 전

  • Amazon S3 Browser를 설치합니다.
  • 앱스플라이어에서 데이터 락커로 이동하여 인증 정보 창에 포함된 정보를 가져옵니다.

Amazon S3 Browser를 설정하려면:

  1. S3 브라우저에서 계정 > 새 계정 추가를 클릭합니다.
    새 계정 추가 창이 열립니다.

    mceclip0.png

  2. 다음과 같이 필드를 완성합니다.
    • Account Name: 자유 텍스트. 
    • Access Key ID: 앱스플라이어 인증 정보 창에 표시된 AWS Access Key를 복사합니다. 
    • 비밀 액세스 키: 앱스플라이어 인증 정보 창에 표시된 버킷 비밀 키를 복사합니다.
    • 비밀번호 포함 액세스 키 암호화를 선택하고, 비밀번호를 입력합니다. 이 비밀번호를 기록해두십시오.
    • 보안 전송 사용을 선택합니다. 
  3. 변경 저장을 클릭합니다.
  4. 버킷 > 외부 버킷 추가를 클릭합니다.
    외부 버킷 추가 창이 열립니다.

    mceclip2.png

  5. Bucket name 을 입력합니다.버킷 이름은 다음 형식입니다: {Bucket Name}/{Home Folder}. bucket name과 home folder에 필요한 값은 앱스플라이어 인증 정보 창에 표시됩니다.
  6. Add External bucket 을 클릭합니다.
    버킷은 생성되고, 창의 왼쪽 패널에 표시됩니다.
    이제 데이터 락커 파일에 액세스할 수 있습니다. 
도움이 되었습니까?