You can make anythingby writing
C.S.Lewis
https://brunch.co.kr/@topasvga/1142
1. Pub/Sub 설정메뉴 > Pub/Sub > 주제create topic (주제 만들기): test-topic 2. 구독 추가구독 만들기 sub1 3. 게시하기메시지 게시 4. 메시지 가져오기 gcloud pubsub subscriptions pull --auto-ack sub1 sub1 것을 가져 온다
brunch.co.kr/@topasvga/1142
https://brunch.co.kr/@topasvga/1143
생성 순서 1. 주제 ( topic ) 2. 구독 ( subscription ) 3. 메시지 (message) 1. 주제 ( topic ) 2. 구독 ( subscription ) 1. seo-topic 이라는 주제를 만듭니다. gcloud pubsub topics create seotopic gcloud pubsub topics create del1
brunch.co.kr/@topasvga/1143
https://brunch.co.kr/@topasvga/1268
<1> 빅데이터 기초 1 데이터 작을 때는 구성 데이터 -- 1개 컴퓨터로 처리 2 데이터 많을 때 구성 데이터 ------ sharding --- worker -- master로 처리 에코시스템이 처리 하둡 Spark HIVE PIG 등 3 Data Proc Hadoop 작
brunch.co.kr/@topasvga/1268
https://brunch.co.kr/@topasvga/1368
<1> 데이터 종류? <2> 데이터 분석 ? <3> Dataproc ? <4> Bigquery <5> 빅쿼리 실습 ? <1> 데이터 종류 2가지 ? 스트림 데이터 와 배치 데이터 <2> 데이터 분석 인프라는 ? 1 데이터 적을때 1대 2 데이
brunch.co.kr/@topasvga/1368
https://brunch.co.kr/@topasvga/1369
<1> Pub / Sub <2> Dataflow <3> Data Studio 를 활용해 보라. <4> FEATURE 엔지니어링 ? 아키텍처 데이터 ------- Pub/Sub --------data flow (시간이 맞지 않는것등 정재함)---- Big query / Cloud Storage --- 가시화 <1> Pub / Su
brunch.co.kr/@topasvga/1369
https://brunch.co.kr/@topasvga/1515
cloud storage에 로그 저장하기 cloud storage로 부터 빅쿼리로 데이터 가져오기 빅쿼리 실행하기 첫번 실습은 실패할것이다. 바로 성공하려면 두번째 과정부터 해도 좋다. <1> cloud storage에 로그
brunch.co.kr/@topasvga/1515
https://brunch.co.kr/@topasvga/1601
"한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다." 개인이 읽고 솔직하게 작성되었습니다. 빅데이터 중급 엔지니어로 만들어 주는 책 구축과 시스템 관점의 책이다
brunch.co.kr/@topasvga/1601
https://brunch.co.kr/@topasvga/1837
<1> (몰아보기) GCP 기본 Compute (공통) <2> (몰아보기) GCP 컨테이너 <3> (몰아보기) GCP 네트워크 <4> (몰아보기) GCP 스토리지 <5> (몰아보기) GCP 보안 <6> (몰아보기) GCP 운영 , 자동화 <7> (몰아보기) GCP 마
brunch.co.kr/@topasvga/1837