데이터 락커—스토리지 설정

요약: 데이터 락커 데이터를 AWS 또는 GCS 스토리지로 스트리밍합니다. GCS를 BigQuery 및 Google Data Studio와 연동하기. [베타] Snowflake에 연결합니다.

데이터 락커를 스토리지로 스트리밍합니다.

관련 자료: 데이터 락커

데이터 락커를 사용하여 데이터를 선택하고 소유한 스토리지 솔루션으로 스트리밍할 수 있습니다. 다음 절차 중 하나를 사용하여 스토리지를 설정하십시오. 

GCS 스토리지

  • 이 섹션의 절차는 Google 클라우드 관리자가 수행해야 합니다.
  • 파일이 작성된 다음 25시간 이상 지나 데이터 락커에서 파일을 삭제하실 수 있습니다. 그 전에는 파일을 삭제하지 마십시오. 

GCS 관리자에 대한 정보

데이터 락커는 데이터를 스토리지로 스트리밍하기 위한 앱스플라이어 솔루션입니다.

요구 사항

  • 데이터 락커를 전용으로 사용하기 위해 GCS에서 버킷을 생성합니다. 전용이란 버킷에 데이터를 쓰는 다른 서비스가 없다는 의미입니다. 
  • 제안하는 버킷 이름: af-datalocker.
  • 다음 절차를 사용하여 데이터 락커 권한을 부여합니다.

데이터 락커 권한 부여 방법:

이 절차에서는 data-locker-example을 이전에 데이터 락커에 대해 생성한 버킷의 이름으로 대체합니다. 

  1. GCS 콘솔에 로그인합니다.
  2. 스토리지 > 스토리지 브라우저로 이동합니다.

    mceclip0.png

  3. 이전에 생성한 버킷, 예를 들어 data-locker-example을 선택하십시오. 
  4. 권한 탭으로 이동합니다. 
  5. +Add(추가)를 클릭합니다.
    회원 추가 창이 열립니다.
  6. 다음과 같이 완료합니다.
    1. 신규 회원, 해당 스니펫을 붙여 넣으십시오.
      af-data-delivery@af-raw-data.iam.gserviceaccount.com
    2. 역할 선택: 클라우드 스토리지 > 스토리지 오브젝트 관리자

      mceclip0.png

  7. 저장을 클릭합니다. 

AWS 스토리지

  • 본 섹션의 절차는 AWS 관리자가 수행해야 합니다.
  • 파일이 작성된 다음 25시간 이상 지나 데이터 락커에서 파일을 삭제하실 수 있습니다. 그 전에는 파일을 삭제하지 마십시오. 

AWS 관리자 정보

데이터 락커는 데이터를 스토리지로 스트리밍하기 위한 앱스플라이어 솔루션입니다.

요구 사항

  • af-datalocker-mybucket이라는 이름을 가진 AWS 버킷을 생성하십시오. 접두사 af-datalocker-는 필수입니다. 접미사는 사용자가 설정합니다.
  • af-datalocker-yyyy-mm-dd-hh-mm-free-text 형식을 제안합니다. 여기서 yyyy-mm-dd-hh-mm은 현재 날짜와 시간이고, 그 다음에 나오는 그림에 표시된 것과 같이 원하는 텍스트를 추가합니다.

AWS 콘솔의 사용자 인터페이스

MyBucket.jpg

버킷을 생성한 이후 앱스플라이어에 다음 절차를 사용할 권한을 부여합니다. 

버킷 생성 및 앱스플라이어에 권한 부여 방법: 

  1. AWS 콘솔에 로그인합니다.
  2. S3 서비스로 이동합니다.
  3. 버킷 생성 방법:
    1. 버킷 생성(Create Bucket)을 클릭합니다.
    2. 다음과 같은 버킷 이름을 작성합니다: 이름은 af-datalocker-로 시작하며 앞서 설명한 바와 같이 다른 텍스트를 추가합니다.
    3. 버킷 생성(Create Bucket)을 클릭합니다.
  4. 앱스플라이어에 권한 부여 방법:
    1. 버킷을 선택합니다. 
    2. 권한 탭으로 이동합니다. 
    3. 버킷 정책 섹션에서 편집(Edit)을 클릭합니다. 
      버킷 정책 창이 열립니다.
    4. 다음 스니펫을 창에 붙여 넣습니다.
      {
        "버전": "2012-10-17",
        "상태": [
          {
            "Sid": "AF_DataLocker_Direct",
            "효과": "허용",
            "기본": {
              "AWS": "arn:aws:iam::195229424603:user/product=datalocker__envtype=prod__ns=default"
            },
            "조치": [
              "s3:GetObject",
              "s3:ListBucket",
              "s3:DeleteObject",
              "s3:PutObject"
            ],
            "Resource": [
              "arn:aws:s3:::af-datalocker-my-bucket",
              "arn:aws:s3:::af-datalocker-my-bucket/*"
            ]
          }
        ]
      }
      
  5. 스니펫에서 af-data-locker-my-bucket을 생성한 버킷 이름으로 교체합니다.

  6. 변경 사항 저장을 클릭합니다.

  7. 데이터 락커 설정 절차를 완료합니다.

BiqQuery와 Google Data Studio를 데이터 락커에 연결하기 위한 기본 가이드

다음 섹션은 GCS 데이터 락커를 BigQuery 및 Google Data Studio에 연결하는 기본 가이드입니다. 사용자에게 연결이 빠르고 간단하며 즉시 사용할 수 있다는 점을 보여주기 위한 것입니다. 앱스플라이어는 BigQuery 및 Google Data Studio와 관련된 지원 서비스를 제공하지 않습니다. 

GCS 데이터 락커 버킷을 BigQuery에 연결

이 섹션의 단계에서는 데이터 락커의 데이터를 BigQuery로 가져오는 방법에 대해 설명합니다. 

관련 자료: Google 클라우드 콘솔을 사용한 빠른 시작

데이터 락커 GCS 버킷의 인스톨 리포트를 BigQuery에 로드하려면 다음 절차를 완료하십시오.


선행 조건 

  • 스토리지 대상으로 GCS를 포함한 데이터 락커를 설정합니다. 
  • 데이터 세트를 설정하기 위해 Google 클라우드에서 필요한 권한을 획득합니다. 


1단계—BigQuery 데이터 세트 생성:

  1. Google 클라우드 플랫폼 콘솔에서 BigQuery로 이동합니다.
  2. 프로젝트를 생성하거나 기존 프로젝트를 사용하십시오. 
  3. 프로젝트에서 CREATE DATASET(데이터 세트 생성)을 클릭합니다.

    GCSCreateDataSEt_1_.png

  4. 데이터 세트에 적합한 ID를 부여합니다.
  5. 필요에 따라 나머지 설정을 완료합니다. 


2단계— BigQuery 테이블을 데이터 락커에 연결:

  1. 데이터 세트에서 CREATE TABLE(테이블 생성)을 클릭합니다.

    GCScreateTable.png

  2. 소스를 다음과 같이 설정합니다.
    1. 테이블 생성 위치: Google 클라우드 스토리지
    2. GCS 버킷에서 파일 선택: 버킷을 검색하여 리포트를 선택합니다. 예를 들어, t=installs. 
    3. *.gz 와일드카드를 설정하여 t=installs 폴더의 모든 하위 폴더에서 데이터를 받기 위해 와일드카드를 설정할 수 있습니다. 
    4. 파일 형식CSV로 설정합니다.
    5. 기존 프로젝트를 선택하거나 새 프로젝트 이름을 입력합니다.
    6. 테이블 유형네이티브 테이블로 설정합니다.

 

3단계—데이터를 쿼리하기 위한 모든 준비 완료 

데이터는 BigQuery로 자동으로 로드됩니다.

데이터 락커 데이터가 Google Data Studio에 표시됩니다.

Google Data Studio를 데이터 락커 데이터에 연결할 수 있습니다. 이렇게 하려면 이전 섹션에서 설명한 대로 데이터 락커를 BiqQuery에 연결해야 합니다. 

선행 조건

  • 데이터 락커를 BigQuery에 연결. 

데이터 락커 데이터를 Google Data Studio에 표시되도록 생성하는 방법:

  1. Google Data Studio에서 리포트를 작성합니다.
  2. BigQuery를 데이터 소스로 선택합니다.

    DataStudio.png

  3. Google Data Studio 리포트에 대한 프로젝트와 테이블을 선택하여 데이터 분석을 시작합니다.

커넥터

Snowflake

Snowflake 옵션은 현재 베타 버전으로 사용할 수 있습니다. 

데이터 락커를 Snowflake 계정에 연결합니다. 그러면 데이터가 Snowflake로 전송되고 선택한 클라우드 스토리지에서 계속 사용할 수 있습니다. Snowflake 베타 커넥터에 참여하려면 귀사의 CSM에 문의하십시오. 

BI 개발자를 위한 고려사항

  • 데이터 신선도 비율은 버킷에 제공된 데이터의 신선도 비율과 동일합니다. 
  • 데이터의 테이블 및 열 구조는 데이터 락커 버킷에서 직접 사용할 수 있는 데이터에 있는 것과 동일합니다. 
  • Snowflake 공유에 행이 추가되면 _ingestion_time 열이 채워집니다. 행 고유성을 유지하고 동일한 행이 두 번 이상 수집되지 않도록 하려면 다음과 같이 하십시오.
    1. 수집된 표당 max_ingstion_time을 저장합니다.
    2. 수집 프로세스를 실행할 때마다 _ingestion_time > max_ingestion_time인 행만 수집합니다.

Snowflake를 데이터 락커에 연결하려면 다음 절차를 완료하십시오. 

Snowflake 커넥터 절차

Snowflake 계정 ID와 지역을 가져오는 방법:

  1. Snowflake에서 Snowflake 계정에 로그인합니다.
  2. 메뉴 바에서 이름을 선택합니다.
    계정 ID와 지역이 표시됩니다.

    SnowflakeAccountId.png

  3. Snowflake 계정 ID지역을 앱스플라이어 CSM으로 전송하여 데이터 락커에서 Snowflake를 활성화하도록 요청합니다. 

데이터 락커를 Snowflake에 연결하는 방법:

  1. 앱스플라이어에서 연동 > 데이터 락커로 이동합니다.
  2. Snowflake를 선택합니다.
  3. 이전에 Snowflake에서 가져온 정보를 사용하여 Snowflake 계정 IDSnowflake 지역을 완료합니다. 
  4. 저장을 클릭합니다.

Snowflake의 공유에서 데이터베이스를 생성하는 방법:

  1. Snowflake에서 Snowflake 계정에 로그인합니다.
  2. 역할을 Accountadmin으로 전환합니다. 공유에서 데이터베이스 생성을 참조하십시오.
  3. 공유를 선택합니다.
  4. 앱스플라이어 공유를 선택합니다. 예를 들어, APPSFLYER_ACC_XXX_DATA_LOCKER. 
  5. 보안 공유에서 데이터베이스 생성을 클릭하고 필요한 세부 사항을 작성합니다. 일러두기! 공유 데이터베이스의 데이터는 제한된 기간(현재 14일)에만 사용할 수 있으므로 공유 데이터베이스의 데이터를 표로 로드해야 합니다.  
  6. 데이터베이스에 가져온 표가 표시됩니다. 표 이름 및 구조는 데이터 락커 버킷의 이름 및 구조와 동일합니다.
도움이 되었습니까?