brunch

152. GCP 빅쿼리 (이론,절차)-5/8

by Master Seo


cloud storage에 로그 저장하기

cloud storage로 부터 빅쿼리로 데이터 가져오기

빅쿼리 실행하기


첫번 실습은 실패할것이다.

바로 성공하려면 두번째 과정부터 해도 좋다.



<1> cloud storage에 로그 저장하기

<2> cloud storage로 부터 빅쿼리로 데이터 가져오기




<1> cloud storage에 로그 저장하기



<2> cloud storage로 부터 빅쿼리로 데이터 가져오기


1

bigquery 시작


2

프로젝트 선택 - 오른쪽 - [데이터세트 만들기] 클릭

10 데이터 세트 만들기.png


3

logdata

데이터 위치는 서울(asia-northeast3)로 맞춰준다.


5

테이블 만들기 >

소스

google cloud storage로 선택

gs://cloud-training/gcpfci/access_log.csv


테이블 이름

accesslog


스키마

자동감지 체크


테이블 만들기

30 테이블만들기.png



6

소스가 미국이라 안된단다.

스토리지가 미국이고 , 빅쿼리는 한국이면 못가지고 오나보다~

40 소스 스토리지가 us이면 가져오지 못함. 한국 스토리지.png
50 한국.png

7

데이터 세트를 다시 한국에 만들자




60 us data1.png

8

테이블 미국으로 다시 만들자

70 테이블.png


9

새로 고침

80 새로고침.png



10

한국에 만든 데이터 세트 logdata는 삭제하자



11

편집기에서 쿼리 날리기


select int64_field_6 as hour, count(*) as hitcount from logdata.accesslog

group by hour

order by hour


처리 시간 나옴

결과 나옴

90 쿼리.png




<3> bq cli로도 확인할수 있다.


1

클라우드 쉘을 실행한다.


2

bq 명령어로 볼수 있다.

bq query "select string_field_10 as request, count(*) as requestcount from logdata.accesslog group by request order by requestcount desc"





다음 공부


https://brunch.co.kr/@topasvga/1516




감사합니다.

keyword
매거진의 이전글151. 구글 클라우드 모니터링 하기-4/8