brunch

You can make anything
by writing

C.S.Lewis

by 빙산 May 12. 2024

인공"지능"에 대한 오해- On A.I

현실과 거품 구분하기-What to fear and what not to

1. AI라는 단어가 붙으면 뭐든지 매력적으로 보이는 세상


회사에서의 일이다.

부서장, 팀장이 검토해보라며 기획안을 줬다.

”AI ㅇㅇㅇㅇㅇㅇㅇㅇ“

내용을 읽어보니 내부 현황파악도, 전체 시장 파악도 잘못 되어있었다.

그러니 기대효과나 예상수익의 수치 역시 전혀 신뢰할 수 없었다.

제안서는 이미 오래 전부터 사용되어온 알고리듬 기반의 자동/반자동화된 시스템에 AI라는 단어를 붙여놓고 ’돈을 많이 벌 수 있다‘라는 어필을 하고 있었다.

기존에 구글의 유튜브 시스템 안에서도 ‘알고리듬’으로 굴러가고 있던 것들.

심지어 이미 구글이 제일 잘하고 있는 건데, 자기네가 하면 9배 더 수익을 낼 수 있단다.


다행히 난 2년 전에 블로그 프로젝트로 인공지능에 대해 꽤 깊게 조사한 적이 있었다.

(각주 기능이 없어 문서 하단에 남깁니다.)


그래서 AI라는 단어에 현혹되지 않았다.

그리고 경험과 전문지식을 바탕으로 객관적인 분석을 전달했다.

몇 일 후, 처음으로 본부장 회의에 불려갔고, 다른 첨부문서와 함께 다시 한 번 기획안 검토 요청을 받았다.

기획안에 요약되어 누락되었던 많은 오류들을 확인할 수 있었다.


AI 인공지능을 활용하는 그 기술업체와 만나서 미팅도 하란다.

그렇게 여러 번 회의에 참석해야 했다.

실체를 알아보니 ’누가 누굴 알아서‘ 모 업체를 통해 전달 받은 ’AI‘를 활용한 수익모델이었던 거였다.

나에게 더 많은 자료를 줄수록 그 자료 안에서 더 많은 오류를 발견할 수 있었다.

그렇게 연초부터 불필요한 검토보고서를 여러 번 쓰고 ’높으신 분들‘께 설명해야 했다.



유튜브에선 AI로 만든 이미지, 스크립트를 통해 영상을 만들어 돈을 만드는 법, 블로그를 운영하는 법에 대한 영상이 넘쳐났다.

심지어 작곡 회사’에서 일하며 개인 작업한 곡을 가수들에게 주는 친구가 인공지능’아이유‘ 보컬을 입힌 가이드곡이라며 들어보란다.

그렇게 인공지능보컬을 알게 된 후, 콜드플레이, 아리아나그란데 등 그들이 부른 적 없는 노래들을 유튜브에서 들어봤다.

(참 신기하게도 소리는 비슷한데, 그들이 만든 노래를 들을 때의 감동은 없었다.)


아- Open AI의 챗GPT가 대박을 터트리자 너도나도 AI란 단어를 남용하며 모든 알고리듬을 AI라고 부르고 있는 시대가 된 것 같다.

자본주의 시장에서 종종 마주하게 된 패턴이다.

혁신의 아이콘이 등장하고 후발주자들이 뛰어들고 돈이 움직인다.


2. AI라는 단어가 주는 환상


인공지능: 보이는 것이 허상일 가능성


사실 단어 안에 정답이 있다.

컴퓨터 상으로 구현가능한 프로그램을 (인간의)지능처럼 보이게 하는 것.


한글로 변환한 한자어 인공지능人工智能이라고 하면 마치 사람이 만들어낸 ‘지능’일 것 같은 인상을 준다.

하지만 영어로 보면 좀 더 본질을 마주하는데 도움이 된다.

Artificial Intelligence. [아티피셜 인텔리젼스]

그래서 [아티피셜]은 뭘까?

다른 단어로 다가가보자.


Artifical Flavor.

인공조미료, 합성조미료

인공조미료는 화학품으로 맛을 만들어내는 첨가제이고 실제 음식재료가 들어가지 않는다.

참고로 몸에도 좋지 않다.




언제나 주의해야 하는 것: 정의 definition


정의는 언제나 중요하다.


AI를 이야기할 때 Narrow AI(weak AI)와 AGI(Artifical General Intelligence)를 구분해야  한다.

Narrow AI는 우리 현실 속에서 활용되고 있다. 안면인식, X-ray 사진 분석, 테슬라의 vision까지.


하지만 AGI는 존재하지 않는다. 이 문장에 ‘아직-’이란 희망적인 단어를 붙이려면 특정 철학, 특정 세계관을 도입해야 한다.


지능을 이야기하려면 먼저 인간의 ‘의식’ 이란 것에 대해 정의를 내려야 한다.

지능을 구성하는 인간의 오각five senses도 알아야한다.

여기에 창의성을 이야기 하려면 자유의지, 즉 시키지 않은 것에 대해서 할 수 있는 자율성도 생각해봐야 한다.


근데 이런 건 너무 철학적이다.

인스타그램의 시대, 감성의 시대에서 용인된 철학은 ’미니멀리즘‘과 ’심플‘ 뿐인 것 같다.

그것도 철학이란 걸 인지한다면 그나마 다행이다.


인간이 무엇인가

인간의 지능은 무엇인가


인공지능은 학습된 데이터가 있어야 한다.

‘본능’, ‘직감’이 없다.


학습된 데이터 밖에서 일어난 일. 즉, ’처음 마주하게 되는 상황‘에서 대처능력이 늘 해프닝으로 남는다.


황당한 예를 몇 개 나눠볼까 한다.  


(1) 테슬라의 ’비전‘.


전용기를 보유한 테슬라 차량 오너가 공항에서 ’서먼summon’기능으로 자기 차를 부른다.

비행기 건너 편에 있던 차량이 비행기에 쿵. (당시 기사)

비전이 학습한 데이터에 비행기를 만나면 피해가라는 게 없었던 거로 추정된다.

하긴, 도로상황만 배웠던 걸까.


2024년.

기차가 지나가는 장면.

테슬라 차량 디스플레이에서는 트럭들이 지나가고 있다.

출처: YouTube FSD evolution | https://youtu.be/t6mvSb-PyXU?si=B1i3iPVjJcp5nOTR

?????


(2) 체스 로봇과 체스를 두던 7살 소년의 손가락이 부러진 사례


난 IT전문가가 아니니 전문가의 의견을 인용할 수 밖에 없다..


인용할 전문가는 NYU"최연소 석좌교수", 8세부터 프로그래밍을하고 나중에 MIT들어가서 연구하다가 뉴욕대학교(NYU)에서 교수가 되었다.

AI 로봇회사 창업 후, 나중에 그 회사가 우버(uber)에 인수된다.


개리 마커스를 소개합니다.


(국내에 번역된 책은 클루지 (Kluge)와 2029 기계가 멈추는 날 (Rebooting AI: Building Artificial Intelligence We Can Trust), 마음이 태어나는 곳 ( the birth of mind) 등)


이 시스템들이 하는 건, 일관성이나 세상에 이해를 바탕으로 한 것이 아니라 단어를 순서대로 조합하는 것에 불과 합니다.
외국인 스크래블 선수가 영어단어가 무슨 뜻인지 모른 채 포인트를 얻기 위한 도구로 사용하는 것과 마찬가지죠.  

What these systems do, no more and no less, is to put together sequences of words, but without any coherent understanding of the world behind them, like foreign language Scrabble players who use English words as point-scoring tools, without any clue about what that mean.

(출처: garymarcus.substack.com)



한편 일론 머스크는 ‘정치적 올바름’에 제한 받는 ‘표현의 자유’의 측면에서 다른 결의 우려를 가지고 있다.

일론 머스크 x(구 트위터)


인공지능과 함께 하는 미래를 얘기할 때, 사람들이 가장 먼저 걱정하는 것은 ‘내 일자리가 사라질 것인가?’ 일지도 모르겠다.

육아 중인 부모들은 ‘내 아이에게 뭘 가르쳐야 할까?’가 될 수도 있겠다.


(아이러니하게도 인공지능이 가장 티나게 먼저 칼자루를 휘두르는 대상이 개발자들이 되었다. 아이들에게 코딩공부 열심히 시키는 대한민국은 어떻게 될까?)


하지만 워렌 버핏이 제시하는 우려*는 다르다. (기사링크)

그는 본인의 딥페이크 영상을 접하고 꽤 놀랐던 적이 있다.

그는 인터뷰에서 인공지능을 핵nuclear과 비교하며 이야기 했다.


그가 한 말을 내 말로 바꾸자면 이렇다.

인공지능이 우리 삶에 미칠 영향 중
가장 위험한 것은 진실의 매장 혹은 대체이다.


딥페이크가 대중화 된다면?

이미 정보의 홍수시대 속에 살아가는 우리. 분별력이 없다면, 자기가 믿고 싶은대로 믿고 근거를 찾는 걸 반복할 거다. 알고리듬은 우릴 그렇게 유도한다. 지혜로운 사람이 되고 싶은 사람들을 반대방향으로 인도할 확증편향(Confirmation Bias)의 세계.


그렇게 진실과 멀어진 채, 진실이 묻힌 세상.

워렌 버핏이 하지 않은 말을 했다고 믿고,

아이유가 부른 적 없는 노래를 불렀다고 믿는 세상.



3. 챗GPT는 똑똑한가?


챗GPT와의 첫 만남, 2년 후


2022년 말, 우연히 듣게 된 조던 피터슨의 유튜브 강의 영상에서 처음으로 ChatGPT(3)의 존재를 알게 되었다. 그리고 인공지능 AI의 역량이 어느 정도일지 궁금해서 여러 테스트를 해봤다. 글을 생성해내는 인터페이스가 마치 실제 누군가가 나에게 글을 쓰고 있는 것 같은 느낌을 줬다. 하지만 논리적 추론 능력의 한계와 정치색에 기반한 필터링이 존재하고 있다는 걸 발견했다.


원리가 궁금하여 여러 전문가들의 의견을 참고하고, 유럽 최대 기술 컨퍼런스인 Web Summbit 3.0과 같은 평소에 관심없던 컨퍼런스도 들어봤다.

web summit 3.0

제목은 무려 Debunking the great AI lie. 번역하면 "AI에 관한 거대한 거짓말을 파헤쳐보다" 패널에 참여한 개리 마커스 님과 오랜 만에 봰 노암 촘스키 님의 비평을 통해 조금 더 실체를 알 수 있었다.


여러 언어를 아는 게 거품을 걷어내는데 도움이 되었고, 지난 5년 이상 누구에게나 재미있는 콘텐츠 대신 강의와 토론 영상을 재밌게 본 게 논리적 분석에 도움이 되었다.



2024년 5월.


이제 IT계에서도 Google Deepmind의 Chief. Demis Hassabis, Meta의 AI Chief는 물론 재계의 워렌 버핏Warrent Buffet까지 LLM기반의 인공지능에 대한 한계와 리스크를 시사하고 있다. 마이크로소프트사의 CEO Satya Nadella도 Open AI의 Sam Altman도 인공지능을 바라보는 대중의 시선에 대해 도구로서 볼 것을 재차 상기시킨다.

전 AI를 의인화 하는 걸 싫어합니다.
전 이게 도구라고 ...믿는다고 할 수 있겠네요.
I don't like anthropomorphizing AI...I sort of believe it's a tool"

-Satya Nadella (CEO of Microsoft) -



제 생각엔 대중에게 이게 '피조물/생명체(creature)'가 아니라 도구라는 걸 설명하고 교육하는 게 아주 중요한 것 같습니다.
I think it's really important to explain, we tried to, we explain, educate people that this is a tool, not a creature.

 -OPEN AI사의 샘 알트만(Sam Altman)


LLM모델은 논리에 대해 아주 제한적인 이해 밖에 할 수 없고.... 물리세계를 이해할 수 없으며.....지속적인 기억력이 없고....합리적인 정의에 대해 사유할 수 없고 ....위계적인 계획을 할 수 없습니다. 

물리적 세상을 이해하고 기억하며 복잡한 행위를 계획할 수 있으며, 어느 수준의 추론을 통한 합리적 판단할 수 있는 고양이가 현존하는 가장 거대한 LLM보다 더 뛰어납니다. 

-Meta's Head of AI : Yann LeCun 
- 파이낸셜 타임즈 인터뷰 중 



다행히 처음 블로그에 글을 쓸 때 보이지 않았던 우려와 한계에 대한 실험결과도 기사로 많이 나타났다. (다행이다)





결론: 여긴 거품이 많이 끼어 있을 가능성이 농후하다.




2023년 초, 인공지능에 대한 프로젝트를 진행할 때 확인한 내용은 이렇다.


1750억개의 Parameter매개변수를 가지고 있는 챗GPT3. 지금의 GPT4는 그 이상으로 추가했다고 한다. 


챗GPT 3(&3.5)는 자기자신에 대해 과대포장하지 않는다.

‘AI의 한계를 알려줘봐’ 라고 하니 스스럼 없이 나열한다.


영어로 질문해서 영어로 답변 받고, 한국어로 번역을 시켜봤던 자료다.

한국어는 일부 수정이 필요했고, 계속 8번에서 멈추는 ‘용량’의 한계가 있었다.  


챗GPT가 말하는 자신의 한계

"인공지능(AI)은 최근 몇 년 동안 놀라운 발전을 이루었지만, 아직 해결해야 할 몇 가지 한계점이 있습니다.

AI의 주요 한계점은 다음과 같습니다. (설명은 생략하고 소제목만 나열 하는 것으로 대체 하겠습니다)

1. 상식의 부재: .... 2. 한계된 창의성: .... 3. 데이터에 대한 의존도: ..... 4. 감성 지능(Emotional Intelligence)의 부재: .... 5. 윤리와 책임성: .... 6. 한계된 전이 학습:..... 7. 한계된 설명: ....

위와 같이 AI는 많은 한계점이 있지만, 아직 많은 도전적인 과제들이 존재하여, AI를 보다 효과적이고 윤리적이며 책임성있게 만드는 것이 중요합니다.

추가로 3가지 한계점은 다음과 같습니다.

8. 인간적인 결정력의 부재: ...
9. 보안 문제: ....
10. 기술 발전 속도:  ...

이러한 한계점들은 AI를 보다 효과적으로 활용하기 위해서는 극복되어야 할 문제들입니다. 이를 극복하기 위해서는 AI 연구에 더 많은 투자와 인프라 구축, 윤리적인 가이드라인의 제공, 그리고 보안 문제와 호환성 문제에 대한 대비책을 마련하는 것이 중요합니다.


정직하긴 하지만, 논리적인 문제를 물어보니 구멍이 드러났다.


인간의 상식을 가진 사람에게 물으면 절대 틀릴 리가 없는 문제.

난 이걸 ”할머니 질문(The Grandma Question)“라고 부르겠다.

챗GPT와시험 대화


알 수 없단다.


“젠더이론“ 이 가미되서 생물학적 여성이 할머니라는 걸 말할 수 없는 챗GPT:.



지금은?


지난 연재글에서 내용을 준비하다 오랜 만에 챗GPT에게 물었다.

https://brunch.co.kr/@thewholeiceberg/72


알렉산드리아 도서관 화재 원인에 대해 알려줘

아니나 다를까, 잘못된 역사내용도 1.2.3.4. 안에 나열해서 알려준다.

세세하게 조사해본 적 없는 사람이 보면 동등한 신뢰성을 지닌 것으로 이해할 법하다.



ChatGPT에게 '의식'이 있는지 물었다. 

챗GPT는 데이터와 알고리듬에 근거해서 인풋을 처리해서 이해와 자각없이 반응하고 있다는 설명을 해준다. 

이걸 또 챗GPT가 거짓말 할 수 있다-고 생각하면, 그건 SF의 세계....라고 생각하는 게 좋겠다. 



(2) 이미지생성형 인공지능은 창의적인가? (WALL.E/midjourney/fotor )


-사례1-

이미지생성형 인공지능은 특히 말귀가 어둡다.

2023년 블로그 글을 위해 테스트 한 결과 중 하나를 소개 해본다.


총 12개의 테스트를 했는데 12점 만점의 1점. 8.33%의 확률로 요청한 이미지를 만들어줬다.


4위에 있는 3 그려달라고 했더니 3만 줌.
파란 눈의 여자 다섯명과 빨간 눈의 고양이 세마리 그려달라고 했더니..여자는 어디가고 고양이만…


그 때는 Dall.e 2라고 치자. 1년 후, Dall.e 3에게도 실험해봤다.


-사례2-

MS에서도 Copilot[코파일럿]을 띄우고 Dall.e 3에게 직접 이미지를 만들어오는 것까지 되던 시기가 있었다.




-사례 3-  

이 브런치북 커버를 만들 때, 직접 사진 찍을 여건이 여의치 않아 이미지생성 인공지능을 활용해봤다. 인터넷에는 훌륭한 이미지가 많았으니 기대치가 있었다.

내게 필요한 건, 동전의 옆면이 잘 보이는 이미지.


이 인공지능, 정확한 요청에 대해 이해를 하지 못한다.

"동전 세 개. 하나는 옆면이 잘 보이게. 동전 옆면에 서있는 사람."

(물론, 영어로 프롬프트를 작성했다.)


미드저니도 마찬가지다.



이 인공지능들은 일단 숫자개념이 모호하고, 위치 개념이 없다.

앞, 뒤, 옆면을 얻는 건 30분 넘게 프롬프트를 바꿔가며 해봤지만 성과가 없어 포기했다.


test rf

test 결과 일부



테스트 결과 2


이거 창의적인거 아니에요?


말길을 못 알아들을 때 창의적이라고 해야하나.




그러고보니 개리 마커스가 그렇게 말했다.


달리(Dall.e)가 처음에 나왔을때,
Open AI사의 샘 올트만(Sam Altman)이 말했죠.  

AGI는 정말 'wild와일드'(대단/어마어마/굉장) 할 거라구요.

(그 때는) 저와 같은 과학자들에겐 접근권한이 제공되지 않고 있었어요.  
지난 몇 개월 전에서야 접근가능하게 되서 보니 이 곳 저 곳 문제가 많았아요.  

네, 예쁜 그림을 그려낼 수 있죠. 

하지만 이 시스템들의 (인간) 언어에 대한 이해는 굉장히 얕습니다.



4. 인간의 언어에 대해


인공지능도 많은 데이터와 긴 시간을 쌓아가기만 하면 짠-하고 자기 의지가 있는 AGI가 ‘발현’할 수 있을까?


만약 인간의 의식, 지능, 언어가정말 다윈주의 진화론에서 말하는 것처럼 단순한 생명체들이 긴 시간을 통해 점진적인 진화를 통해 발생했다면.


그게 이 인공지능이 자기 의식이 있는 AGI로 발전할 거라고 기대하는 이들의 전제이다.


지성이 무지성에서 시작될 수 있는 극도로 낮은 발생가능성.

그 확률을 극복하기 위해 진화론은 일반인들의 기준으로 상대적으로 긴 시간을 전제한다.  

두 개의 변수, [발생가능성P] x [시간T] 중, 늘릴 수 있는 건 T뿐이니.


인공지능, 머신러닝에선 이렇게 된다.

두 개의 변수, [데이터의 량D] x [시간 T].

투자자들이 자금을 회수할 수 있기 때문에 시간이 촉박하다.

그래서 늘릴 수 있는 건, D.


그게 LLM, Large Language Model이다.

패턴을 배우고, 사용빈도를 파악하고, 첫번째 단어 다음에 올 단어에 대한 확률에 맞춰, ‘말이 되는 것처럼 보이게’ 단어를 배열하고 있는 거다.


챗GPT도, Gemeni 도, CoPilot도 LLM을 사용하는 생성형 인공지능 모두.


개념적으론 어떨까?

인간의 지능에 대해 아무리 연구해봐도 환원주의적 전제에선 답이 안 나오니 원리를 알 수 없다. 노암 촘스키는 ‘태어날 때부터 가지고 있는 언어 시스템’이란 개념을 얘기하지만, 그런 이론은 인공지능을 만드는 이들에게 도움이 되지 않는다.


가끔 언론 기사가 눈에 들어온다.

“인공지능이 인류의 미래에 대해 무서운 이야기를 했다“


그 인공지능이 학습한 데이터에 디스토피아적 픽션이 있었을 뿐이다.

인공지능이 ‘의미’를 알고 의식을 담아 뱉어낸 게 아니다.


인간이 주고 받는 정보를 1,0을 통해 구현해낼 수 있을 뿐이지, 그렇다고 언어의 본질이 비트와 바이트가 아니다. 언어는 의미를 전달하는 도구인데, 그 의미는 환원주의적 분석으로는 설명해낼 수 없다.


의미는 비물질적인 거다.


AI의 시대가 효율의 시대가 될지, 거짓의 시대가 될지는 정해져 있지 않다.

하지만 우리가 이 도구를 과신하게 될 때, 맹신하게 될 때, 불필요한 두려움을 갖게 될 때, 인공지능이 아닌 우리 스스로가 우리를 위험에 처하게 할 수 있을 거라는 위기감은 있다.


인류가 지혜롭게 대처해야할 때이다.



Ep.3 맺는 말: 동전의 옆면에 서서


만약 인공지능 vs 인류의 대치를 예상한다면 지금 시점에 우리가 예측할 수 있는 건 뭘까?

현재 유행하는 인공지능을 개발하는 트렌드에는 인간지능을 간과하는 측면이 있다는 거다.

언어생성형 모델은 언어를 처리하는 인간의 두뇌를 단순하게 해석하고 있고,

테슬라의 비전은 인간의 시각정보를 처리하는 인간의 두뇌를 단순하게 해석하고 있다.

이런 인간의 능력을 얕잡아보는 게 거품의 시작이고 인류의 승산을 남기게 되는 건 아닐까?


세분화된 영역에서 활약하고 있는 인공지능(NARROW AI)는 현실이다.

하지만, 인간지능을 어우를만한 AGI는 공상과학의 소재일 뿐이다.

(SF소설을 좋아하는 IT개발자들이 받아드리기 싫겠지만 개념적으로, 논리적으로 그럴 수 밖에 없다)


인공지능의 지능에 대해서 너무 안일하게 생각하고 있다.

인간의 지능은 그저 한 가지 영역으로 구성되어 있지 않다.
공간, 신체운동감각, 음악, 언어, 논리수학, 관계, 내면적, 자연패턴...

Howard Gardner의 이론이 말하는 8가지 종류의 지능 - 공간, 음악, 언어, 논리수학, 관계, 내면적, 자연패턴(출처:CNBC)

인간에겐 그게 가능하게 하는 신체가 있고 그걸 이뤄내는 몸 안의 신비mystery들은 아직도 밝혀졌다고 보기 어렵다.




5. 부록: Q&A


Q. AI가 돈이 되는가?

- 될 수 있다.


Q. AI가 계속 돈이 될 것인가?

- 아닐 거다. (대부분의 영역에서 아직은 인간보다 비싸다)


Q. AI가 인간을 대체하는 미래는 올 것인가?

- AI가 대체할만한 영역이 국한되어 있다.


Q. AI가 인류에게 재앙을 부르는 시대는 올 것 인가?

-글쎄, AI가 스스로 판단해서라기 보단, 그걸 개발하고 운영하는 이들의 손에 의해서 올 거다.


Q. 브런치작가는 챗GPT를 사용해도 되나?

- 받은 내용을 검증하는 절차를 거친다면, 시간절약이 될 수 있겠다.

하지만 작가로서의 역량을 방해하는 도구가 될 수도 있다.



Q. 그런데 아직도 인공지능이 뭔지 모르겠어요.


- 아직도 우리가 사용하는 (텍스트) 생성형 인공지능이 무엇인지 감이 안온다면, 전통적인 예시가 도움이 될 지 모르겠다.


IT기술에 전혀 관심이 없는 이들에게 도움이 될 만한 유명한 비유가 있다.


John Serle’s Chinese Room.


중국어/한자를 쓸수도 읽을 수도 없는 직원이 있다.

그는 작은 방 안에 있고, 방안에는 많은 중국어 단어가 서류함에 담겨있다.

사람들이 그 사무실 창문으로 input을 넣는다.

A라는 질문을 넣고, 의미를 묻는다.


그는 사무실 안의 서류함에 있는 모든 서류를 뒤져서 같은 글자가 있는 걸 찾아낸다.

그리고 사무실 창문으로 output을 전달한다.


사무실 밖에서 보면 사무실 안에 있는 직원이 중국어를 할 줄 안다고 생각할 수 있겠지만, 그렇게 보일 뿐이다.


이게 알고리듬에 따라 답변을 주는 상황이다.

모든 서류를 뒤지는 속도가 빨라지고, 서류를 분류해놓는 게 고도화 되고 있을 뿐이다.



ㅁ이 주제에 흥미가 있으시거나, 인공지능이 두려우신 분들을 위한 과거 조사 자료 ㅁ


(1) AI,인공지능에 대한 오해 (1부: Science Fiction과 Fact 구분하기) - https://bitl.tistory.com/m/99

(2) AI,인공지능에 대한 오해 (2부: 챗GPT비평) feat. 노암 촘스키, 개리 마커스 - https://bitl.tistory.com/m/98



참고자료:

Debunking the great AI lie | Noam Chomsky, Gary Marcus (링크)

What AI is and isn't. What AI can do, and what it cannot. (feat. Gary Marcus, Prof. Foster PRovst) (링크)


이전 03화 과학에 대한 오해-On Science
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari