포브스지 온라인 기사 번역
이번 주에는 포브스지에서 롭 토이스가 얀 르쿤과 요수아 벤지오의 인터뷰를 좀 더 기술적으로 서술해서 영한 번역을 해 보았습니다.
지난번과 마찬 가지로 글을 읽기 전에 한 가지 유념해 주실 것은 이 글 원본에 대한 저의 번역에 대하여 잡지사 측으로부터 허락받지 않고 게재합니다. 그러므로 이 글에 대해 저작권과 번역권을 저는 가질 수 없습니다. 또한 만일 포브스에서 그러한 권리를 주장한다면 이 글을 내릴 수도 있습니다. 끝으로 이 글에 대해 어떠한 상용 자료나 기업 내부의 자료에 사용할 수 없고 읽어 보시기만 권장드립니다.
인공 지능 분야는 빠르게 움직입니다. 2012년 이미지넷(ImageNet) 대회에서 딥 러닝의 현대 시대가 시작된 지 불과 8년밖에 되지 않았습니다. 그 이후로 이 분야에서의 진전은 숨이 멎을 정도로 가차 없었습니다.
어쨌든, 이 맹렬한 속도는 매우 가속되고 있습니다. 지금부터 5년 후 인공지능 분야는 오늘날과는 매우 다르게 보일 것입니다. 현재 최첨단으로 간주되는 방법은 구식이 될 것입니다. 오늘날 초기 단계이거나 주변에 있는 방법이 주류가 될 것입니다.
차세대 인공 지능은 어떤 모습일까요? 어떤 새로운 인공지능 접근 방식이 기술과 비즈니스에서 현재 상상할 수 없는 가능성을 열어 줄까요? 필자의 이전 칼럼에서는 앞으로 몇 년 동안 분야와 사회를 재정의 할 인공지능 내 세 가지 새로운 영역을 다뤘습니다. 이 기사에서는 세 가지를 더 다룰 것입니다.
AI는 엣지(Edge)로 이동하고 있습니다.
클라우드에서 데이터를 주고받지 않고도 엣지에 있는 장치 (예 : 전화, 스마트 스피커, 카메라, 차량)에서 인공지능 알고리즘을 직접 실행할 수 있는 것은 엄청난 장점이 있습니다.
가장 중요한 것은 엣지 AI(Edge AI)가 데이터를 소스에서 원격 서버로 이동할 필요가 없기 때문에 데이터 프라이버시를 강화한다는 것입니다. 엣지 AI는 모든 처리가 로컬에서 이루어 지므로 지연 시간이 더 짧습니다. 이는 자율 주행 차량이나 음성 비서와 같은 시간에 민감한 애플리케이션에 중요한 차이를 만듭니다. 에너지 및 비용 측면에서 더 효율적이며 머신러닝 계산 및 경제적 비용이 풍선처럼 증가함에 따라 점점 더 중요한 고려 사항이 될 것입니다. 또한 인터넷 연결 없이도 인공지능 알고리즘을 자율적으로 실행할 수 있습니다.
인공지능 비즈니스 세계의 거물 중 한 명인 엔비디아(Nvidia) CEO인 젠슨 황(Jensen Huang)은 엣지 AI를 컴퓨팅의 미래로 보고 있습니다. "인공지능은 클라우드로부터 인공지능 컴퓨터에 연결된 스마트 센서가 체크아웃 계산 속도를 높이고, 지게차들(forklifts)을 직접 수행하고, 오케스트레이션 트래픽을 증가시키며, 전력을 절전할 수 있는 엣지로 이동하는 방식입니다. 점차 시간이 지남에 따라 인공지능에 의해 구동되는 소형 자율 컴퓨터는 수조 개에 달할 것입니다."
그러나 엣지에서 유비쿼터스 인텔리전스에 대한 이 높은 비전이 현실이 되려면 핵심 기술 혁신이 필요합니다. 인공지능 모델은 작아져야 합니다. 훨씬 작아야 합니다. 따라서 성능 저하 없이 신경망을 축소하는 기술을 개발하고 상용화하는 것은 인공지능 분야에서 가장 중요한 목표 중 하나가 되었습니다.
오늘날 일반적인 딥 러닝 모델은 방대하며 실행하려면 상당한 계산 및 스토리지 리소스가 필요합니다. 올여름 헤드 라인을 장식 한 OpenAI의 새로운 언어 모델 GPT-3에는 무려 1,750 억 개의 모델 매개 변수가 있으며 모델을 저장하는 데 350GB 이상이 필요합니다. GPT-3에 접근하지 않는 모델도 여전히 계산 집약적입니다. 몇 년 전에 개발된 널리 사용되는 컴퓨터 비전 모델인 ResNet-50은 초당 38 억 개의 부동 소수점 연산을 사용하여 이미지를 처리합니다.
이러한 모델은 엣지에서 실행할 수 없습니다. 휴대전화, 핏빗(Fitbit) 또는 룸바(Roomba)의 칩들을 생각해 보십시오. 엣지 장치의 하드웨어 프로세서는 단순히 이를 지원할 만큼 강력하지 않습니다. 따라서 딥 러닝 모델을 더 가볍게 만드는 방법을 개발하는 것은 중요한 잠금 해제를 의미합니다. 분산된 인공 지능을 기반으로 구축된 제품 및 비즈니스 기회의 물결을 일으킬 것입니다.
그러한 모델 압축은 어떻게 작동합니까?
연구원과 기업가들은 최근 몇 년 동안 이 분야에서 엄청난 진전을 이루어 신경망을 소형화하기 위한 일련의 기술을 개발했습니다. 이러한 기술은 가지 치기(pruning), 양자화(quantization), 낮은 순위 분해(low-rank factorization), 컴팩트 컨볼루션 필터(compact convolutional filters) 및 지식 분류(knowledge distillation)의 다섯 가지 주요 범주로 분류할 수 있습니다.
가지 치기(pruning)는 신경망에서 중복되거나 중요하지 않은 연결을 식별하고 제거하여 이를 줄입니다. 양자화(quantization)는 값을 표현하기 위해 더 적은 비트를 사용하여 모델을 압축합니다. 낮은 순위 분해(low-rank factorization)에서 모델의 텐서(Tensor)들은 원래 텐서에 근접한 희소(sparser) 버전을 생성하기 위해 분해됩니다. 컴팩트 컨볼루션 필터(compact convolutional filters)들은 컨볼루션을 수행하는 데 필요한 매개 변수 수를 줄이기 위해 특별히 설계된 필터입니다. 마지막으로, 지식 분류(knowledge distillation)에는 모델의 전체 크기 버전을 사용하여 더 작은 모델을 "훈련하는(teach)" 출력을 모방하는 것이 포함됩니다.
이러한 기술은 대부분 서로 독립적이므로 개선된 결과를 위해 함께 배치할 수 있습니다. 그들 중 일부 (정리, 양자화)는 이미 존재하는 모델에 적용할 수 있는 반면 다른 일부 (컴팩트 컨볼루션 필터, 지식 분류)는 처음부터 모델을 개발해야 합니다.
연구에서 시장으로 신경망 압축 기술을 도입하기 위해 소수의 신생 기업이 등장했습니다. 더 유망한 기업들 중에는 Pilot AI, Latent AI, Edge Impulse 및 Deeplite 등이 있습니다. 한 예로, 딥 라이트(Deeplite)는 자사의 기술이 성능 저하 없이 신경망을 100 배 더 작고 10 배 더 빠르게, 20 배 더 전력 효율을 높일 수 있다고 주장합니다.
파일럿 AI CEO 인 존 수(Jon Su)는 “전 세계의 계산 능력을 가진 장치 수는 지난 10년 동안 급증했습니다. “ 파일럿 AI의 핵심 IP를 사용하면 객체 감지 및 추적과 같은 작업에 사용되는 인공지능 모델의 크기를 크게 줄일 수 있으므로 AI/ML 워크로드를 엣지 IoT 장치에서 직접 실행할 수 있습니다. 이를 통해 장치 제조업체는 매년 판매되는 수십억 개의 센서 (푸시 버튼 초인종, 온도 조절기, 차고 문 개폐 장치 등)를 차세대 IoT 애플리케이션을 지원할 풍부한 도구로 변환할 수 있습니다. "
대기업은 기술의 장기적인 전략적 중요성을 강조하면서 이 카테고리의 스타트 업을 적극적으로 인수하고 있습니다. 올해 초 애플은 시애틀에 있는 Xnor.ai를 2억 달러에 인수했습니다. 엑스노어의 기술은 애플이 아이폰(iPhone) 및 기타 장치에 엣지AI 기능을 배포하는 데 도움이 될 것입니다. 2019년 테슬라(Tesla)는 차량 추론을 지원하기 위해 이 분야의 초기 개척자들 중 하나인 딥스케일(DeepScale)을 인수했습니다.
그리고 지난달에 발표된 400억 달러 규모의 엔비디아 인수에 대한 몇 년 동안 가장 중요한 기술 거래들 중 하나는 인공지능이 최첨단 엣지로 이동함에 따라 효율적인 컴퓨팅으로의 가속화에 의해 상당한 동기 부여가 되었습니다.
엔비디아 CEO인 젠슨 황은, "에너지 효율은 미래에 컴퓨팅에 가장 중요한 것입니다... 그리고 함께 Nvidia와 Am은 인공지능 시대에 세계 최고의 컴퓨팅 회사를 만들 것입니다."라고 이 점을 강조하면서 이번 거래에 대해 강조하여 말했습니다.
앞으로 몇 년 동안 인공 지능은 엣지에 있는 수조 개의 장치에서 작동할 수 있고, 분산되고, 주위의 둘러 쌓일 것입니다. 모델 압축은 이 비전을 현실로 만드는 데 도움이 되는 필수 구현 기술입니다.
오늘날의 머신 러닝 모델은 얼굴 인식 또는 사기 식별과 같은 기존 데이터를 대부분 해석하고 분류합니다. 적대적 생성 인공지능(Generative AI)은 자체적으로 새로운 콘텐츠를 생성할 수 있는 인공지능 구축에 초점을 맞춘 빠르게 성장하는 새로운 분야입니다. 간단히 말해서, 적대적 생성 인공지능은 인공 지능을 인지하는 것 이상으로 창조하는 것입니다.
적대적 생성 인공지능의 핵심 기술은 적대적 생성 신경망(GAN)과 변형 자동 인코더(VAE)입니다.
두 가지 방법 중 더 많은 관심을 끌고 있는 GAN은 인공지능 개척자인 요슈아 벤지오(Yoshua Bengio) 교수 지도 하에 이안 굿펠로우(Ian Goodfellow)가 2014년 몬트리올 대학에서 박사 학위를 취득하는 동안 발명했습니다. 굿펠로우의 개념적 돌파구는 두 개의 개별 신경망으로 GAN(Generative Adversarial Networks)을 설계 한 다음 서로 대립하는 것이었습니다.
예를 들어, 사람 얼굴의 수집한 사진 모음과 같은 주어진 데이터셋으로 시작하여 첫 번째 신경망( "생성자(generator)"라고 함)은 픽셀 측면에서 수학적으로 기존의 이미지와 유사한 새로운 이미지를 생성하기 시작합니다. 반면에, 두 번째 신경망("판별자(discriminator)")은 원본 데이터셋에서 왔는지 또는 생성자의 출력에서 왔는지 여부에 대한 정보를 받지 않고 사진들을 공급받습니다. 그다음 태스크는 어떤 사진이 합성적으로 생성되었는지 확인하는 것입니다.
두 네트워크가 반복적으로 서로 작동함에 따라 서로의 기능을 반복적으로 연마합니다. 결국 판별 자의 분류 성공률은 무작위 추측보다 낫지 않아 50%까지 떨어지게 돼 합성으로 생성된 사진들이 원본과 구별할 수 없게 되었습니다. 2016년 인공 지능의 거장 얀 르쿤(Yann LeCun)은 GAN을 "머신러닝에서 지난 10년 동안 가장 흥미로운 아이디어"라고 불렀습니다.
GAN과 거의 동시에 소개된 VAE는 GAN의 대안으로 사용할 수 있는 개념적으로 유사한 기술입니다.
GAN과 마찬가지로 VAE는 출력을 생성하기 위해 함께 작동하는 두 개의 신경망으로 구성됩니다. 첫 번째 네트워크("인코더")는 입력 데이터를 가져와서 저 차원 표현으로 압축합니다. 두 번째 네트워크("디코더")는 이 압축된 표현을 취하고 원래 데이터 속성과 랜덤 함수의 확률 분포를 기반으로 원래 입력을 "리프(riff)"하는 새로운 출력을 생성합니다.
일반적으로 GAN은 VAE보다 높은 품질의 출력을 생성하지만 구축하기가 더 어렵고 비용이 많이 듭니다. 보다 광범위하게 인공 지능과 마찬가지로 적대적 생성 인공지능은 널리 유익하고 무시 무시하게 위험한 실제 애플리케이션에 영감을 불어넣었습니다. 어느 것이 우세할지 시간 만이 알 수 있습니다.
긍정적인 측면에서, 적대적 생성 인공지능의 가장 유망한 사용 사례 중 하나는 합성 데이터(synthetic data)입니다. 합성 데이터는 잠재적으로 게임을 변화시키는 기술로, 실무자가 AI 모델들을 훈련시키는 데 필요한 정확한 데이터셋들을 디지털로 조작할 수 있습니다.
올바른 데이터에 액세스 하는 것은 오늘날 인공 지능에서 가장 중요하고 가장 어려운 부분입니다. 일반적으로 딥 러닝 모델을 훈련하기 위해 연구원들은 실제 세계에서는 수천 또는 수백만 개의 데이터 포인트를 수집해야 합니다. 그런 다음 모델 이 데이터에서 학습하기 전에 각 데이터 요소에 레이블을 부착해야 합니다. 이것은 비용이 많이 들고 시간이 많이 소요되는 프로세스입니다. 최악의 경우 필요한 데이터는 손에 넣기가 불가능할 때도 있습니다.
합성 데이터는 실무자들의 요구에 따라 정확한 요구 사항에 맞게 고충실도(high-fidelity) 데이터셋을 인위적으로 만들 수 있도록 함으로써 이 패러다임을 뒤집습니다. 예를 들어, 합성 데이터 방법을 사용하여 자율 차량 회사는 실제 거리에서 이러한 각 장면을 실제로 만날 필요가 없는 차량에서 학습할 수 있는 수십억 개의 다른 운전 장면을 생성할 수 있습니다.
합성 데이터가 실제 데이터에 정확하게 접근하면 인공지능이 대중화되어 독점적인 데이터 자산의 경쟁 우위를 약화시킬 것입니다. 온 디맨드로 데이터를 저렴하게 생성할 수 있는 세상에서는 산업 전반의 경쟁 역학이 뒤집힐 것입니다.
어플라이드 인튜이션(Applied Intuition), 패럴 도메인(Parallel Domain), AI.리베리에(AI.Reverie), 신디시스 AI(Synthesis AI) 및 Unlearn.AI를 포함하여 이 기회를 추구하기 위해 유망한 스타트 업이 등장했습니다. 엔비디아, 구글 및 아마존과 같은 대기업들도 합성 데이터에 막대한 투자를 하고 있습니다. 합성 데이터의 첫 번째 주요 상업적 사용 사례는 자율 주행 차량이었지만 이 기술은 의료에서 소매 및 그 이상에 이르기까지 산업 전반에 빠르게 확산되고 있습니다.
합성 데이터의 엄청난 긍정적 잠재력을 상쇄하는 다른 생성 AI 애플리케이션은 사회에 광범위하게 파괴적인 영향을 미칠 것으로 위협합니다. 예를 들어, 딥 페이크(deepfakes)들이 그러합니다.
올해 초 이 칼럼에서 딥 페이크를 자세히 다루었습니다. 본질적으로 딥 페이크 기술을 사용하면 컴퓨터와 인터넷 연결이 있는 사람이라면 누구나 실제로 말하거나 하지 않은 것을 말하고 행하는 사람들의 사실적인 사진과 동영상을 만들 수 있습니다.
딥 페이크 기술이 널리 적용된 첫 번째 사용 사례는 포르노입니다. 2019년 7월 스타트업 센시티(Sensity)의 보고서에 따르면 온라인 딥 페이크 동영상의 96 %가 포르노입니다. 딥 페이크 포르노는 유명한 유명인이나 개인적인 접촉이 나오는 노골적인 동영상을 인공적으로 합성하는 것과 관련하여 거의 항상 동의하지 않습니다.
인터넷의 어두운 구석에서 딥 페이크의 사용이 정치적 영역으로 확산되기 시작했으며, 여기에서 해를 입을 가능성이 훨씬 더 큽니다. 최근 가봉, 말레이시아 및 브라질에서 발생한 딥 페이크 관련 정치적 사건은 앞으로 일어날 일의 초기 사례 일 수 있습니다.
최근 보고서에서 브루킹스 연구소는 딥 페이크가 제기하는 정치적, 사회적 위험의 범위를 다음과 같이 암울하게 요약했습니다. “왜곡된 민주적 담론은 선거 조작을 하고 기관에 대한 신뢰를 약화시킵니다. 또한 약화 저널리즘은 사회적 분열을 악화시킵니다. 공공 안전을 약화시키는 것은 선출직 공무원과 공직 후보를 포함하여 저명한 개인의 평판에 고치기 어려운 피해를 입히는 것입니다.”
합성 데이터와 딥 페이크의 기본 기술은 동일합니다. 그러나 사용 사례와 잠재적인 실제 영향은 정반대입니다. 인간이 그것을 채택하는 방법에 따라 주어진 혁신이 엄청난 이익을 줄 수 있거나 사회에 심각한 해를 끼칠 수 있다는 것은 기술의 위대한 진실입니다. 원자력에 대해서도 마찬가지입니다. 인터넷에서도 마찬가지입니다. 인공 지능도 마찬가지입니다. 이러한 관점에서 볼 때 적대적 생성(Generative) 인공지능은 강력한 사례입니다.
그의 획기적인 저서인 생각에 관한 생각(Thinking, Fast And Slow)에서 노벨상을 수상한 심리학자 대니얼 카너먼(Daniel Kahneman)은 "시스템 1"의 사고와 "시스템 2"의 사고의 개념을 대중화했습니다.
시스템 1 사고는 직관적이고 빠르며 수월하고 자동입니다. 시스템 1 활동의 예로는 친구의 얼굴 인식, 지나가는 광고판의 단어 읽기, "전쟁과 _______" 문구 완성 등이 있습니다. 시스템 1은 의식적인 처리가 거의 필요하지 않습니다.
시스템 2 사고는 더 느리고 분석적이며 심의적입니다. 인간은 추상적인 문제를 해결하거나 새로운 상황을 다루기 위해 노력이 필요한 추론이 필요할 때 시스템 2 사고를 사용합니다. 시스템 2 활동의 예에는 복잡한 수수께끼를 풀거나 사회적 환경에서 특정 행동의 적절성을 결정하는 것이 포함됩니다.
시스템 1 / 시스템 2 프레임워크는 인간의 인지를 분석하기 위해 개발되었지만, 오늘날 인공 지능 세계에서도 매우 잘 매핑됩니다. 요컨대, 오늘날의 최첨단 인공지능 시스템은 시스템 1 작업에서는 탁월하지만 시스템 2 작업에서는 큰 어려움을 겪습니다.
인공지능 리더인 앤드류 응(Andrew Ng)는 이것을 잘 요약했습니다. "일반적인 사람이 1 초 미만의 생각으로 정신 작업을 수행할 수 있다면 지금 또는 가까운 미래에 인공지능을 사용하여 이를 자동화할 수 있을 것입니다."
NeurIPS에서 요슈아 벤지오의 2019년 기조연설은 이 정확한 주제를 탐구했습니다. 그의 강연에서 벤지오는 인공지능 시스템이 시스템 1 작업을 넘어 계획, 추상적인 추론, 인과적 이해 및 개방형 일반화와 같은 시스템 2 기능으로 이동할 수 있는 새로운 방법을 추구할 것을 인공지능 커뮤니티에 요청했습니다.
벤지오는 "우리는 세상을 이해하고, 좋은 세계 모델을 만들고, 원인과 결과를 이해하고, 지식을 습득하기 위해 세상에서 행동할 수 있는 기계를 원합니다."라고 말했습니다.
인공지능 분야의 의제, 궤적 및 포부를 구성하는 방법에는 여러 가지가 있습니다. 그러나 아마도 가장 강력하고 간결한 방법은 이 것입니다. 인공지능이 발전하기 위해서는 인공지능이 시스템 2 사고를 더 잘해야 합니다.
시스템 2 인공 지능으로 이동하는 가장 좋은 방법을 아직 확실히 아는 사람은 없습니다. 이를 수행하는 방법에 대한 논쟁은 최근 몇 년 동안 종종 논쟁의 여지가 있는 분야를 통해 진행되었습니다. 지능의 개념에 대한 기본적인 철학적 질문을 불러일으키는 논쟁입니다.
벤지오는 오늘날의 신경망에 대한 추가 혁신을 통해 시스템 2 추론이 현재의 딥 러닝 패러다임 내에서 달성될 수 있다고 확신합니다.
벤지오는 NeurIPS 기조연설에서 “어떤 사람들은 이러한 도전에 맞서기 위해 완전히 새로운 것을 발명해야 한다고 생각하고 고전적인 인공지능으로 돌아가 고급 인지와 같은 일을 처리해야 한다고 생각합니다. "[그러나] 현재 우리가 있는 곳에서 딥 러닝의 능력을 확장하여 인지 시스템 2에 대한 이러한 종류의 높은 수준의 질문에 접근하는 길이 있습니다."
벤지오는 시스템 2 인공지능 추구에 대한 특별한 약속을 지키는 딥 러닝 내의 기존 기술로서 어텐션(attention) 메커니즘, 연속 학습(continuous learning) 및 메타 러닝을 강조했습니다.
그러나 다른 사람들은 인공지능 분야에 더 근본적인 재설정이 필요하다고 생각합니다.
교수이자 기업가인 게리 마커스(Gary Marcus)는, 특히, 시스템 2 지능에 대한 비-딥러닝 접근 방식(non-deep-learning)을 적극적으로 옹호했습니다. 마커스는 인공 지능 연구 초기에는 인기가 있었지만 최근에는 선호되지 않는 심볼릭 메서드(symbolic methods)와 신경망을 결합한 하이브리드 솔루션을 요구했습니다.
"딥 러닝은 지능형 머신을 구축하는 더 큰 도전의 일부 일 뿐입니다." 마커스는 현대 딥 러닝 시대가 시작된 2012년 뉴요커 매거진(New Yorker)에서 썼습니다. “이러한 기술은 인과 관계를 표현하는 방법이 부족하며 추상적인 아이디어를 얻는 데 어려움을 겪을 가능성이 있습니다.... 논리적 추론을 수행하는 명백한 방법은 없으며, 어떤 물체가 무엇인지, 무엇을 위한 것인지, 일반적으로 사용되는 방법에 대한 정보와 같은 추상적인 지식을 통합하는 데는 아직 멀었습니다. "
마커스는 추론할 수 있는 AI를 향한 대안을 추구하기 위해 로봇 스타트업인 Robust.AI를 공동 설립했습니다. 바로 어제 로버스트(Robust)는 1,500만 달러의 시리즈 A 기금 모금을 발표했습니다.
컴퓨터 과학자 쥬 디아 펄(Judea Pearl)은 시스템 2 추론으로 가는 길이 딥 러닝을 넘어선 것이라고 믿는 또 다른 선도적인 사상가입니다. 펄은 수년 동안 인과적 추론(casual inference, 통계적 연관성이 아닌 원인과 결과를 이해할 수 있는 능력)을 진정으로 지능적인 머신을 구축하는 열쇠로 옹호해 왔습니다. 펄이 최근에 말했듯이 "딥 러닝의 모든 인상적인 성과는 커브 피팅(curve fitting)에 불과합니다."
이 기사 시리즈에서 살펴본 6개의 인공지능 영역 중이 마지막 영역은 의도적으로 가장 개방적이고 추상적인 영역입니다. 시스템 2 인공지능에는 많은 잠재적인 경로가 있습니다. 전방 도로는 가려져 있습니다. 순회적이고 곤혹스러운 여정 일 가능성이 높습니다.
그러나 우리 생애 내에서 그것은 경제와 세계를 변화시킬 것입니다.
* 저의 의견: 비지도 학습, 연합 학습, GPT-3와 같은 트랜스포머 기반의 획기적인 자연어 처리, 신경망 압축, 적대적 생성 인공지능, 시스템2 추론 등 전체 글을 읽어 보았다면 미래의 차세대 인공지능이라고 보기보다는 현재의 인공지능이 도전해야 할 과제라고 볼 수 있는 기술들을 비즈니스와 기술 관점에서 개념들을 쉽게 설명해 놓았습니다.
이제 다양한 산업 분야에서 이미 인공지능은 거를 수 없는 물결이 되었고 그러한 인사이트를 가지고 하시는 일에 인공지능 또한 과거의 인류에 사용해왔던 불과 도끼와 같은 도구로써 21세기에 활용하기 바랍니다. 포브스지의 축약 또는 요약을 해서 글을 적을 수 있었으나 굳이 전체 번역을 한 이유는 원저자의 의도를 정확히 알리기 위해서 였습니다.
차세대 인공지능 제1편 번역(한글): https://brunch.co.kr/@synabreu/100
차세대 인공지능 제1편 포브스지(영문): https://www.forbes.com/sites/robtoews/2020/10/12/the-next-generation-of-artificial-intelligence/?sh=216cbd1c59eb
차세대 인공지능 제2편 포브스지(영문): https://www.forbes.com/sites/robtoews/2020/10/29/the-next-generation-of-artificial-intelligence-part-2/?sh=fdd5a677a304
Deep Learning's Carbon Emissions Problem by Forbes (영문): https://www.forbes.com/sites/robtoews/2020/06/17/deep-learnings-climate-change-problem/?sh=7920f6406b43
Deep Residual Learning for Image Recognition 논문(영문): https://arxiv.org/pdf/1512.03385.pdf
A Survey of Model Compression and Acceleration for Deep Neural Network 논문(영문): https://arxiv.org/pdf/1710.09282.pdf
Apple buys edge-based AI startup Xnor.ai for a reported $200M by TechCrunch 기사(영문): https://techcrunch.com/2020/01/15/apple-buys-edge-based-ai-startup-xnor-ai-for-a-reported-200m/
Tesla acquires computer vision startup DeepScale in push toward robotaxis 기사(영문): https://techcrunch.com/2019/10/01/tesla-acquires-computer-vision-startup-deepscale-in-push-towards-autonomy/
SqueezeNet: Alexnet-Level Accuracy with 50x Fewer Parameters And <0.5MB Model Size 논문(영문): https://arxiv.org/pdf/1602.07360.pdf
Nvidia's $40 billion Arm acquisition is about bringing AI down from the cloud 기사 (영문): https://www.theverge.com/2020/9/14/21435890/nvidia-arm-acquisition-40-billion-ai-cloud-edge-why
Generative Adversarial Networks 논문(영문): https://arxiv.org/abs/1406.2661
What are some recent and potentially upcoming breakthroughs in deep learning? by Quora 기사(영문): https://www.quora.com/What-are-some-recent-and-potentially-upcoming-breakthroughs-in-deep-learning
Stochastic Backpropagation and Approximate Inference in Deep Generative Models 논문(영문): https://arxiv.org/pdf/1401.4082.pdf
WayMo Built a Secret World for Self-Driving Cars 기사(영문): https://www.theatlantic.com/technology/archive/2017/08/inside-waymos-secret-testing-and-simulation-facilities/537648/
Deepfakes Are Going To Wreak Havoc On Society. We Are Not Prepared 기사(영문): https://www.forbes.com/sites/robtoews/2020/05/25/deepfakes-are-going-to-wreak-havoc-on-society-we-are-not-prepared/?sh=28451a0c7494
Mapping the Deepfake Landscape 보고서(영문): https://sensity.ai/mapping-the-deepfake-landscape/
Is Seeing Still believing? The deepfake challenge to truth in politics 리포트(영문): https://www.brookings.edu/research/is-seeing-still-believing-the-deepfake-challenge-to-truth-in-politics/#cancel
AndrewNg: What AI can and Can't Do Right by HBR 컬럼 (영문): https://hbr.org/2016/11/what-artificial-intelligence-can-and-cant-do-right-now
2019 Keynote at NeurlPS : https://www.youtube.com/watch?v=T3sxeTgT4qc
To Understand The Future of AI, Study Its Past by Forbes 기사(영문): https://www.forbes.com/sites/robtoews/2019/11/17/to-understand-the-future-of-ai-study-its-past/?sh=7f9aa82c21b3
Deep Learning For System 2 Processing 발표 자료(영문): http://www.iro.umontreal.ca/~bengioy/AAAI-9feb2020.pdf
Is "Deep Learning" A Revolution in Artificial Intelligence? 컬럼(영문): https://www.newyorker.com/news/news-desk/is-deep-learning-a-revolution-in-artificial-intelligence
Robust.AI raises a $15M Series A to improve problem solving for collaborative robots 기사(영문): https://techcrunch.com/2020/10/28/robust-ai-raises-a-15m-series-a-to-improve-problem-solving-for-collaborative-robots/
To Build Truly Intelligent Machines, Teach Them Cause and Effect 컬럼(영문): https://www.quantamagazine.org/to-build-truly-intelligent-machines-teach-them-cause-and-effect-20180515/