요약: 데이터 락커 데이터를 AWS 또는 GCS 스토리지로 스트리밍합니다. GCS를 BigQuery 및 Google Data Studio와 연동하기. [베타] Snowflake에 연결합니다.
데이터 락커를 스토리지로 스트리밍합니다.
관련 자료: 데이터 락커
데이터 락커를 사용하여 데이터를 선택하고 소유한 스토리지 솔루션으로 스트리밍할 수 있습니다. 다음 절차 중 하나를 사용하여 스토리지를 설정하십시오.
GCS 스토리지
- 이 섹션의 절차는 Google 클라우드 관리자가 수행해야 합니다.
- 파일이 작성된 다음 25시간 이상 지나 데이터 락커에서 파일을 삭제하실 수 있습니다. 그 전에는 파일을 삭제하지 마십시오.
GCS 관리자에 대한 정보
데이터 락커는 데이터를 스토리지로 스트리밍하기 위한 앱스플라이어 솔루션입니다.
요구 사항
- 데이터 락커를 전용으로 사용하기 위해 GCS에서 버킷을 생성합니다. 전용이란 버킷에 데이터를 쓰는 다른 서비스가 없다는 의미입니다.
- 제안하는 버킷 이름:
af-datalocker
. - 다음 절차를 사용하여 데이터 락커 권한을 부여합니다.
데이터 락커 권한 부여 방법:
이 절차에서는 data-locker-example
을 이전에 데이터 락커에 대해 생성한 버킷의 이름으로 대체합니다.
AWS 스토리지
- 본 섹션의 절차는 AWS 관리자가 수행해야 합니다.
- 파일이 작성된 다음 25시간 이상 지나 데이터 락커에서 파일을 삭제하실 수 있습니다. 그 전에는 파일을 삭제하지 마십시오.
AWS 관리자 정보
데이터 락커는 데이터를 스토리지로 스트리밍하기 위한 앱스플라이어 솔루션입니다.
요구 사항
- af-datalocker-mybucket이라는 이름의 AWS 버킷을 생성하십시오. 접두사 af-datalocker-는 필수입니다. 접미사는 사용자가 설정합니다.
- af-datalocker-yyyy-mm-dd-hh-mm-free-text 형식을 제안합니다. 여기서 yyyy-mm-dd-hh-mm은 현재 날짜와 시간이고, 그 다음에 나오는 그림에 표시된 것과 같이 원하는 텍스트를 추가합니다.
AWS 콘솔의 사용자 인터페이스
버킷을 생성한 이후 앱스플라이어에 다음 절차를 사용할 권한을 부여합니다.
버킷 생성 및 앱스플라이어에 권한 부여 방법:
- AWS 콘솔에 로그인합니다.
- S3 서비스로 이동합니다.
-
버킷 생성 방법:
- 버킷 생성(Create Bucket)을 클릭합니다.
- 다음과 같은 버킷 이름을 작성합니다: 이름은
af-datalocker-
로 시작하며 앞서 설명한 바와 같이 다른 텍스트를 추가합니다. - 버킷 생성(Create Bucket)을 클릭합니다.
-
앱스플라이어에 권한 부여 방법:
- 버킷을 선택합니다.
- 권한 탭으로 이동합니다.
- 버킷 정책 섹션에서 편집(Edit)을 클릭합니다.
버킷 정책 창이 열립니다. - 다음 스니펫을 창에 붙여 넣습니다.
{ "Version": "2012-10-17", "Statement": [ { "Sid": "AF_DataLocker_Direct", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::195229424603:user/product=datalocker__envtype=prod__ns=default" }, "Action": [ "s3:GetObject", "s3:ListBucket", "s3:DeleteObject", "s3:PutObject" ], "Resource": [ "arn:aws:s3:::af-datalocker-my-bucket", "arn:aws:s3:::af-datalocker-my-bucket/*" ] } ] }
-
스니펫에서
af-data-locker-my-bucket
을 생성한 버킷 이름으로 교체합니다. -
변경 사항 저장을 클릭합니다.
- 데이터 락커 설정 절차를 완료합니다.
BiqQuery와 Google Data Studio를 데이터 락커에 연결하기 위한 기본 가이드
다음 섹션은 GCS 데이터 락커를 BigQuery 및 Google Data Studio에 연결하는 기본 가이드입니다. 사용자에게 연결이 빠르고 간단하며 즉시 사용할 수 있다는 점을 보여주기 위한 것입니다. 앱스플라이어는 BigQuery 및 Google Data Studio와 관련된 지원 서비스를 제공하지 않습니다.
GCS 데이터 락커 버킷을 BigQuery에 연결
이 섹션의 단계에서는 데이터 락커의 데이터를 BigQuery로 가져오는 방법에 대해 설명합니다.
관련 자료: Google 클라우드 콘솔을 사용한 빠른 시작
데이터 락커 GCS 버킷의 인스톨 리포트를 BigQuery에 로드하려면 다음 절차를 완료하십시오.
선행 조건
- 스토리지 대상으로 GCS를 포함한 데이터 락커를 설정합니다.
- 데이터 세트를 설정하기 위해 Google 클라우드에서 필요한 권한을 획득합니다.
1단계—BigQuery 데이터 세트 생성:
- Google 클라우드 플랫폼 콘솔에서 BigQuery로 이동합니다.
- 프로젝트를 생성하거나 기존 프로젝트를 사용하십시오.
- 프로젝트에서 CREATE DATASET(데이터 세트 생성)을 클릭합니다.
- 데이터 세트에 적합한 ID를 부여합니다.
- 필요에 따라 나머지 설정을 완료합니다.
2단계— BigQuery 테이블을 데이터 락커에 연결:
- 데이터 세트에서 CREATE TABLE(테이블 생성)을 클릭합니다.
- 소스를 다음과 같이 설정합니다.
- 테이블 생성 위치: Google 클라우드 스토리지
- GCS 버킷에서 파일 선택: 버킷을 검색하여 리포트를 선택합니다. 예를 들어, t=installs.
- *.gz 와일드카드를 설정하여 t=installs 폴더의 모든 하위 폴더에서 데이터를 받기 위해 와일드카드를 설정할 수 있습니다.
- 파일 형식을 CSV로 설정합니다.
- 기존 프로젝트를 선택하거나 새 프로젝트 이름을 입력합니다.
- 테이블 유형을 네이티브 테이블로 설정합니다.
3단계—데이터를 쿼리하기 위한 모든 준비 완료
데이터는 BigQuery로 자동으로 로드됩니다.
데이터 락커 데이터가 Google Data Studio에 표시됩니다.
커넥터
Snowflake
Snowflake 옵션은 현재 베타 버전으로 사용할 수 있습니다.
데이터 락커를 Snowflake 계정에 연결합니다. 그러면 데이터가 Snowflake로 전송되고 선택한 클라우드 스토리지에서 계속 사용할 수 있습니다. Snowflake 베타 커넥터에 참여하려면 귀사의 CSM에 문의하십시오.
BI 개발자를 위한 고려사항
- 데이터 신선도 비율은 버킷에 제공된 데이터의 신선도 비율과 동일합니다.
- 데이터의 테이블 및 열 구조는 데이터 락커 버킷에서 직접 사용할 수 있는 데이터에 있는 것과 동일합니다.
- Snowflake 공유에 행이 추가되면
_ingestion_time
열이 채워집니다. 행 고유성을 유지하고 동일한 행이 두 번 이상 수집되지 않도록 하려면 다음과 같이 하십시오.- 수집된 표당
max_ingstion_time
을 저장합니다. - 수집 프로세스를 실행할 때마다
_ingestion_time > max_ingestion_time
인 행만 수집합니다.
- 수집된 표당
Snowflake를 데이터 락커에 연결하려면 다음 절차를 완료하십시오.
Snowflake 커넥터 절차
Snowflake 계정 ID와 지역을 가져오는 방법:
- Snowflake에서 Snowflake 계정에 로그인합니다.
- 메뉴 바에서 이름을 선택합니다.
계정 ID와 지역이 표시됩니다.
- Snowflake 계정 ID와 지역을 앱스플라이어 CSM으로 전송하여 데이터 락커에서 Snowflake를 활성화하도록 요청합니다.
데이터 락커를 Snowflake에 연결하는 방법:
- 앱스플라이어에서 연동 > 데이터 락커로 이동합니다.
- Snowflake를 선택합니다.
- 이전에 Snowflake에서 가져온 정보를 사용하여 Snowflake 계정 ID와 Snowflake 지역을 완료합니다.
- 저장을 클릭합니다.
Snowflake의 공유에서 데이터베이스를 생성하는 방법:
- Snowflake에서 Snowflake 계정에 로그인합니다.
- 역할을 Accountadmin으로 전환합니다. 공유에서 데이터베이스 생성을 참조하십시오.
- 공유를 선택합니다.
- 앱스플라이어 공유를 선택합니다. 예를 들어, APPSFLYER_ACC_XXX_DATA_LOCKER.
- 보안 공유에서 데이터베이스 생성을 클릭하고 필요한 세부 사항을 작성합니다. 일러두기! 공유 데이터베이스의 데이터는 제한된 기간(현재 14일)에만 사용할 수 있으므로 공유 데이터베이스의 데이터를 표로 로드해야 합니다.
- 데이터베이스에 가져온 표가 표시됩니다. 표 이름 및 구조는 데이터 락커 버킷의 이름 및 구조와 동일합니다.