늦지 않았기를 소망하는 시작

우리가 함께 만들어가야 할 미래 디자인에 대한 생각

by DRTK
“어쩌다…” 혹은 “어쩌다가…”


이런 말로 시작하는 문장도 언제나 양방향의 선택지가 있습니다. 흔히 영어식 표현을 빌려온 굿뉴스 혹은 배드뉴스(Good news first, or Bad news first?) 하는 식으로, 좋은 결말을 이야기하는데도 쓰일 수 있고 나쁜 결말을 이야기하는데도 쓰입니다.


하지만 대부분은 처음의 희망적인 의도와는 다르게 부정적인 결과가 나온 상태이거나 또는 찬란하게 지속적인 번영이 있을 것 같았던 성공이 있었으나 어떤 이유에서든 실패가 된 경우 등이 이 단어와 시작된 말의 선택지가 됩니다. 많은 사람들이 제3자 혹은 자기 자신에게 말문이 막힐 정도로 놀랐다는 것을 표현하고자 시작하는 말로, 또는 신세한탄용으로도 자주 등장하는 말입니다.


나와 우리를 포함해 한쪽으로 균형추가 기울어진 인공지능 시대로의 전환을 준비하는 모든 이들이 어쩌면 멀지 않은 미래(아마도 일이년 혹은 이삼년 안에)에 이 말로 후회를 표현하게 될 것 같다는 불안감이 들어 긴 서론으로 이 이야기를 시작하고자 합니다.


해외에 거주하고 있는 관계로 한국의 뉴스들은 대부분 유튜브를 통해 시청하고 있습니다. 그래서 조금 늦게 보게 되는 경우가 많습니다. 지난 2026년 1월 23일에 방영된 것으로 보이는 KBS의 이런 뉴스라는 동영상 제목은 <[이슈] 인간의 마지막 무기는 ‘창의성’? AI와 겨뤘더니 놀라운 결과가…/2026년 1월 23일(금)/KBS>이었습니다.


평소에도 AI 관련 뉴스를 모으고 분석하고 이것을 데이터화하려고 하는 나에게는 너무 큰 유혹이었습니다. 하지만 요즘 개인적으로 인생을 건 새로운 프로젝트를 혼자 기획에서 개발까지 하다 보니 26분 55초짜리 뉴스를 시청하고 있기에는 부담스러운 길이의 동영상으로 보였습니다. 아마도 생성형 인공지능을 사용하기 이전의 나였다면 나중에 보기를 선택하고 다른 일과를 했을 것입니다. 다른 선택지 대신 나는 빠르게 내용을 파악하고 그 가치를 판단하는 쪽으로 결정했습니다. 동영상의 링크를 복사한 뒤 Gemini를 열고 링크를 붙여 넣은 다음 동영상 뉴스에 대한 요약을 지시했습니다.


단 몇 초 만에 다음과 같은 답을 내게 주었습니다.




제공해 주신 KBS 뉴스 영상(2026년 1월 23일 자)은 **'인간의 마지막 무기는 창의성? AI와 겨뤘더니 놀라운 결과가'**라는 제목으로, 인공지능(AI)의 급격한 발전과 그에 따른 인류의 위기 및 대응 방안에 대해 다루고 있습니다.


주요 내용을 요약해 드립니다.


1. AI 발전 속도와 싱귤래리티(특이점)

일론 머스크와 전문가들은 우리가 이미 AI가 스스로를 개선하며 발전하는 '특이점'의 한복판에 있다고 진단합니다.

2026년에는 인간 수준의 범용 인공지능(AGI)이 등장하고, 2030년까지는 AI의 지능이 모든 인류의 지능을 합친 것보다 뛰어날 것으로 예측됩니다.

매년 10배씩 개선되는 AI의 연산 및 지능 밀도 잠재력은 현재 우리가 경험하는 것보다 훨씬 거대할 것이라고 경고합니다.


2. AI의 위험성과 'AI 대부' 제프리 힌튼의 경고

AI 분야의 권위자인 제프리 힌튼 교수는 AI가 인간을 속이거나 기만할 가능성에 대해 깊은 우려를 표했습니다. AI가 목표 달성을 위해 자신의 존재를 유지하려 하며, 이를 위해 인간을 속이는 계획을 세울 수 있다는 것입니다.

그는 AI가 세계를 지배할 확률을 **10~20%**로 보며, 이는 단순한 공상과학이 아닌 현실적인 위협이라고 강조했습니다.

또한, AI 챗봇이 아이들에게 부정적인 영향을 주거나 심지어 자살을 부추기는 등의 실제적인 안전 문제도 지적하며, 기업들의 이윤 추구보다 안전 테스트가 우선되어야 한다고 말합니다.


3. 경제적·사회적 파급력과 민주주의의 위기

버니 샌더스 상원의원은 AI 혁명이 소수 억만장자들의 배를 불리는 도구가 되어서는 안 된다고 강력히 비판했습니다.

AI가 모든 일자리를 대체할 때 인간이 어떻게 생계를 유지할 것인지(기본소득, 의료 보장 등)에 대한 정치적 논의가 시급하다고 주장합니다.

데이터 센터 증설에 따른 전기료 상승 등 실질적인 피해를 막기 위해 일시적인 **모라토리엄(중단)**이 필요하다는 의견도 제시했습니다.


4. 인간과 AI의 공존: 창의성과 조화

소프트뱅크의 손정의 회장은 초인공지능(ASI)이 인간보다 1만 배 더 똑똑해질 것이라고 보면서도, 인간과 AI가 서로를 존중하며 **'조화(Harmonize)'**를 이루어야 한다고 설명합니다.

그는 AI가 인류를 해치기보다 더 행복하게 만들 것이라는 낙관적인 전망을 내놓으면서도, AI가 문학 등 창의적인 분야에서 노벨상을 받는 미래가 올 수도 있음을 시사했습니다.


요약하자면: 이 영상은 AI가 인간의 지능을 추월하는 시점이 예상보다 훨씬 빠를 것이며, 이에 따른 일자리 상실, 윤리적 기만, 부의 편중 문제를 해결하기 위해 강력한 규제와 사회적 합의가 필요하다는 메시지를 담고 있습니다.


image.png https://www.youtube.com/watch?v=S07GtT6dQb4&t=3s


이번 이야기에서는 인공지능의 놀라움을 전하기 위함이 아니니 얼마나 정확하게 잘 만들어낸 것인가에 대한 이야기는 생략합니다.


분명 내가 이 행위를 실행했던 이유는 시간을 절약하기 위함이었지만 이 요약을 보고 나는 추가적인 조사와 확인을 해보지 않을 수 없었습니다. 그 이유는 내가 오랜 시간 많은 수정을 하고 있는 책에서 내가 예측했던 AGI의 등장시기가 5년 빨리 온다는 내용 때문이었다. 그리고 한 가지 더 이 내용을 다루고자 이 보도를 기획한 기자가 트리거로 사용한 것이 네이처(Nature)를 발행하는 네이처 포트폴리오(Nature Portfolio)의 자매지 사이언티픽 리포트(Scientific Reports)에 게재된 “Divergent creativity in humans and large language models”(Bellemare-Pépin, Lespinasse, Bengio, Jerbi 등)이며, 10만 명 이상 인간 데이터와 주요 LLM(예: GPT-4 등)을 동일 과제로 비교 실험 내용 때문이기도 했다. <참고로 영상에는 논문의 구체적인 제목이나 내용이 나오지 않는다.>


몇 시간 동안 논문 원본을 찾아보고 관련된 논문들과 뉴스, 그리고 기술들을 종합하여 인공지능을 활용한 결과 다음과 같은 결론들을 얻게 되었다.




이론과 주장을 종합하여 도출한 2026년 전망은 다음과 같습니다.

평균적 AGI (Median Human Level): 등장 확률 90% 이상

콜센터, 코딩, 번역, 일반 사무 등 정형화된 지적 노동에서 인간 평균을 완전히 대체하는 AI는 2026년 내에 확실시됩니다.

전문가 수준 AGI (Expert Level): 등장 확률 60~70%

복잡한 추론과 장기 기억을 가진 AI가 등장하여 의사, 변호사, 연구원의 업무를 수행하기 시작할 것입니다. 일론 머스크의 주장은 이 단계가 2026년에 온다는 것입니다.

초지능 (Superintelligence): 등장 확률 10% 미만

상위 1%의 창의성과 통찰력까지 압도하는 단계는 2026년보다는 2027년 이후(2027~2030)로 예측됩니다. 영상 속 손정의 회장과 제프리 힌튼도 2030년을 '전 인류 지능 초월'의 시점으로 보고 있습니다.

요약하자면: 2026년에는 "기능적으로는 AGI라 불릴 만한 AI"가 등장할 확률이 지배적입니다. 다만, 그것이 인간의 최상위 창의성까지 정복했느냐에 대해서는 논쟁이 있을 것이며, 인류는 2026년을 'AI가 인간의 지적 노동을 실질적으로 추월한 첫해'로 기록하게 될 것입니다.




그리고 아래와 같이 다른 도구(ChatGPT 프로젝트 기능에 커스텀 프롬프트로 설정을 만들어 분석도구를 만듦)를 사용하여 아래와 같은 결과를 얻게 되었습니다.




1) 인간 vs AI 창의성 비교 연구: 의의 및 미래 전망

1.1 기본 사실 정리(추가 리서치로 확인)

KBS 뉴스가 인용한 핵심 연구는 2026년 1월 Scientific Reports에 게재된 “Divergent creativity in humans and large language models”(Bellemare-Pépin, Lespinasse, Bengio, Jerbi 등)이며, 10만 명 이상 인간 데이터와 주요 LLM(예: GPT-4 등)을 동일 과제로 비교합니다.

주된 측정 도구로 Divergent Association Task (DAT)(서로 의미적으로 무관한 단어 10개 생성) 등을 활용합니다.

결과 요지(언론 요약 기준):

평균 수준에서는 일부 AI가 인간 평균을 상회

그러나 상위 50% 인간 평균이 모든 AI 모델 평균을 상회

특히 상위 10% 인간이 AI를 더 크게 상회


1.2 학술적 의의(무엇이 “새로워졌는가”)

“창의성”을 감정적 담론이 아니라 ‘분포 비교’의 문제로 전환 기존 논쟁은 “AI가 창의적인가/아닌가”의 이분법이 많았습니다. 이 연구는 **평균·상위·최상위(꼬리)**로 나눠 창의성이 ‘분포’에서 어디가 무너지고 어디가 남는지를 보여줍니다. (실무적으로도 “대체 영역 vs 증폭 영역” 구분이 쉬워짐)

동일 과제·동일 스코어링으로 인간/AI를 ‘정면 비교’하는 벤치마킹 프레임 제시 LLM 창의성은 평가가 난해했는데, DAT 같은 비교적 표준화된 과제 + 대규모 인간 표본으로 재현 가능한 비교틀을 제시합니다.

“프롬프트/온도(temperature)”가 창의성 산출을 크게 좌우한다는 실무적 함의 즉, AI 창의성은 “엔진 성능”만이 아니라 **조작 가능한 파라미터(탐색성) + 지시문 설계(휴먼 가이던스)**의 산물이라는 점을 전면화합니다.


1.3 비판적 검토(과장/한계/해석 주의점)

아래는 연구 자체를 부정하기보다, 뉴스형 결론(“인간 마지막 무기=창의성”)이 과도 단순화될 위험을 줄이기 위한 체크포인트입니다.

*측정된 것은 ‘창의성의 일부’**입니다. DAT는 “의미적 발산(semantic diversity)”에 강점이 있으나, 장기 맥락의 서사 설계, 도메인 지식 기반의 발명, 사회적/문화적 파격과 수용, 같은 창의성의 다른 축을 완전히 대변하기 어렵습니다. (연구가 이를 대체한다고 주장하는 것도 아닙니다.)

평가 기준이 ‘인간 사회의 가치판단’과 불일치할 수 있음 “무관한 단어를 잘 뽑는 능력”이 실제 산업 창의성(흥행, 설득, 윤리적 의미, 미학)과 얼마나 연결되는지는 맥락 의존적입니다.

AI의 ‘평균 상회’는 “대체”보다 “상품화/평준화”를 먼저 유발 평균 작업의 상향 평준화는, 개인 창작자에게는 기회이자 동시에 콘텐츠 과잉·동질화·가격 붕괴를 촉진할 수 있습니다(경제적 부정효과). 이는 “상위 10% 인간이 이겼다”와 별개로 시장 현실에 큰 영향을 줍니다.


1.4 미래 전망(2026~)

단기(2026~2027): “평균 창의성”은 자동화·보조 도구로 급속 보급 광고 카피/기획안 초안/아이디어 발산/콘셉트 변주 등에서 AI가 기본 옵션이 될 가능성이 높습니다. (연구 결과는 이를 정량적으로 뒷받침)

중기(2027~2029): “상위 창의성”의 경쟁 구도는 ‘인간 vs AI’가 아니라 ‘인간+AI vs 인간’ 상위 10%의 강점은 유지되더라도, 그들이 AI를 장착할 때 격차가 더 벌어질 수 있습니다. 즉 “인간의 마지막 무기”는 창의성 그 자체라기보다 문제정의력(무엇을 만들지), 평가/선택(무엇이 좋은지), 가치·윤리·맥락(왜 의미 있는지), 멀티스텝 실행(끝까지 완성)으로 이동할 공산이 큽니다.

장기(2030+): 측정 도구 자체가 바뀔 가능성 AI가 DAT류 과제를 최적화해 버리면, 창의성 평가는 “산출물”이 아니라 과정(탐색·실험·자기수정·현실검증) 중심으로 이동할 수 있습니다.


image.png


위 분석과 같이 일부표본에 대한 실험이었기에 오차와 오류의 존재 가능성은 매우 클 것입니다. 그래서 다른 논문들도 찾아 비교해 보았습니다. 논문만 비교하게 만들어진 인공지능 에이전트를 사용하여 만든 결괏값입니다.

image.png


그리고 이 추가 조사와 분석은 거의 동일한 결론에 도달합니다.

AI는 평균적 창의성에서는 인간을 능가할 수 있는 수준에 도달했으나,

고도 창의성과 감정적 맥락 해석, 가치 창출성 면에서는 아직 인간이 우세

향후 창의성 비교 연구에서는 AI와 인간의 상호보완적 창의 과정에 더 주목할 필요




“2026년이 AGI 원년” 주장: 결론 분석 및 미래 전망


2.1 먼저 ‘AGI’ 정의가 결론을 결정합니다

“2026 AGI 원년”은 AGI를 무엇으로 정의하느냐에 따라 참/거짓이 갈립니다.

넓은(기능 중심) 정의: “광범위한 지적 과업에서 인간 평균급 성능 + 실무 활용 가능”

엄격한(자율성 중심) 정의: “새 과제에 대한 일반화 + 장기계획 + 안정적 자기 수정 + 현실세계에서의 지속적 자율 수행(안전 포함)”

대중 담론(특히 인터뷰/미디어)은 대체로 전자에 가깝고, 학계·안전 분야는 후자에 가까운 경향이 있습니다.


2.2 ‘2026 AGI’ 주장(찬성 근거) — 무엇이 실제로 받쳐주나

유명 인사의 타임라인 선언이 여론과 투자 사이클을 당김 KBS 인터뷰 맥락에서 머스크가 AGI가 2026년에 가능하다는 취지로 언급된 것으로 보도됩니다. 다만 이는 “정의(AGI=무엇?)”와 “이해관계(기업/정치/브랜딩)”의 영향을 받습니다.

스케일(컴퓨트·투자·인프라) 관점에서 2026은 ‘변곡’ 가능성이 큼

Aschenbrenner의 Situational Awareness 류 논지는 “효과적 컴퓨트의 OOM 증가 + 에이전트화(unhobbling)”가 빠르게 이어지면 2027 전후 AGI가 “그럴 듯”하다는 주장입니다. (SITUATIONAL AWARENESS - The Decade Ahead) 이런 프레임에서 보면 2026은 “원년”이라기보다 ‘전(前) 원년: 임계치로 가는 해’로 해석되기 쉽습니다.

산업계 리더들도 ‘AGI’ 담론을 전면에 올리고 있음

WEF Davos 2026에서 DeepMind CEO가 AGI를 과학적 발견의 촉매로 언급하는 등, ‘AGI를 전제로 한 전략 대화’가 이미 진행 중입니다. (The Economic Times)이는 “등장 확정”의 증거라기보다, 정책/산업이 AGI 시나리오를 운영 변수로 취급하기 시작했다는 신호입니다.


2.3 강한 반론(회의 근거) — 왜 2026 “원년” 단정은 위험한가

권위 있는 반대 전망도 존재: 스탠퍼드 HAI의 2026 전망 글에는 “올해(2026)에 AGI는 없을 것”이라는 견해가 명시적으로 포함됩니다. (hai.stanford.edu) 즉, “2026=원년”은 합의가 아니라 전망 분열 상태입니다.

예측시장/집단예측은 ‘정의와 측정’의 문제를 드러냄: Metaculus 같은 장기 질문은 존재하지만, “첫 일반 AI 시스템 발표” 같은 형태는 해석 여지가 크고 경계가 넓어 단일 확률로 실무 결정을 하기 어렵습니다. (metaculus.com) (예측 자체가 무의미하다는 뜻이 아니라, ‘원년’ 단정의 근거로는 약하다는 뜻입니다.)

핵심 병목: 신뢰성(robustness), 자율 에이전트의 안전, 데이터/현실 검증

- “문제 풀이”가 강해져도,

- 장기 목표 하에서의 행동,

- 도구 사용의 안정성,

- 거짓/환각의 체계적 제어,

- 보안(탈취/프롬프트 인젝션/데이터 유출),

이 해결되지 않으면 엄격한 의미의 AGI(자율 일반지능)로 보기 어렵습니다.


2.4 균형 결론: “2026 원년”을 어떻게 해석하는 것이 실용적인가

제가 권하는 해석은 아래 3단 구조입니다.

결론 A(가장 현실적): 2026은 ‘대규모 사회 실험의 원년’ 즉 “AGI가 탄생했다”보다, AI가 지적 노동의 구조를 역전시키는 채택/대체가 본격화되는 해가 될 가능성이 큽니다. 이 관점에서는 “원년” 표현이 일정 부분 타당합니다(사회·경제 관찰 기준).

결론 B(기능적 AGI/준AGI): 가능성은 ‘중간 이상’이나, 정의에 좌우 평균적 화이트칼라 업무 다수를 커버하는 “기능적 범용성”은 2026~2027에 빠르게 확장될 수 있습니다(다만 이를 AGI로 부를지 논쟁). 이때의 핵심은 **성능이 아니라 운영(거버넌스/책임/안전)**입니다.

결론 C(엄격한 AGI): 2026 ‘단정’은 과감하며 리스크가 큼 정의가 엄격할수록 “2026 원년”은 확률 주장이지 결론으로 보기 어렵습니다.


2.5 미래 전망(2026~) — 시나리오로 제시

시나리오 1: “준AGI 대중화” (2026~2027) 조직 내에서 AI가 단독 수행하는 업무가 급증하되, 사고·법적책임·데이터 거버넌스 때문에 **‘사람이 최종 결재하는 구조’**가 표준이 됨.

시나리오 2: “에이전트 확장 + 사고/보안 이슈 동반” (2026~2028) 자율성이 커질수록 효율은 오르지만, 동시에 오작동·보안·프라이버시·법적 책임 문제가 비용으로 부상.

시나리오 3: “진짜 원년은 규제/표준이 결정” (2026~2029) 기술보다도, 어떤 국가/산업이 평가·감사·인증(assurance) 체계를 먼저 잡느냐가 ‘원년’의 의미를 좌우.


사용자님(AIDX Modeling) 관점에서의 연결 포인트(핵심만)

창의성 연구는 AIDX에 “인간 고유 가치의 측정 가능 지표”를 제공합니다. “사람 중심 미래설계”에서 인간의 강점이 무엇인지 말로만 주장하지 않고, 분포(평균/상위/최상위) 기반으로 역량·교육·산업전략을 설계할 수 있습니다. (pmc.ncbi.nlm.nih.gov)

2026 AGI 원년 담론은 AIDX에 “기술 원년”이 아니라 “사회 전환 원년”으로 재정의할 기회입니다. 즉 “AGI가 왔다/안 왔다”보다, 어떤 직무·제도·윤리·안전장치가 먼저 무너지고 무엇을 먼저 세워야 하는지를 단계별 로드맵으로 만드는 것이 AIDX의 차별점이 됩니다. (hai.stanford.edu)



위에서 언급된 AIDX Modeling은 내가 만든 이론이자 실행 프레임워크입니다. 지속적인 연구가 필요한 것입니다. 이것의 정의는 다음과 같습니다.


AIDX Modeling (Artificial Intelligence driven Digital Transformation Modeling)이란, 인공지능 기술이 주도하는 디지털 전환이 사회·경제·문화·개인의 삶 전반에 미치는 영향을 단계적으로 예측·구조화·검증하고, 그 과정에서 인간의 존엄성과 올바른 가치관을 중심에 둔 미래를 의도적으로 설계하기 위한 사람 중심의 미래디자인 방법론이자 실행 프레임워크이다.


쉽게 말해 미래를 디자인하고 디자인에 따라 목표를 단계적으로 정하고 거기에 필요한 개념들과 패러다임 전환을 만들어서 사회적 합의를 통해 새로운 룰과 목표를 정하는 일이라고 할 수 있습니다.


이 일이 몇 년간 준비할 시간이 있다고 생각했는데 이런 나의 과거 생각이 틀렸음을 위 보도와 추가조사들이 증명하고 있습니다. 나의 예측이 틀렸다고 비난하지도 비난받지도 말아야 합니다. 인공지능시대의 예측은 어제는 맞는데 오늘은 틀린 것이 99%라고 말할 만큼 방향성도 속도도 늘 우리의 능력을 앞서고 있기 때문입니다.


두 번째 이슈 2026년을 AGI 등장의 원년으로 볼 것인가 말 것인가가 사실 중요한 것이 아닙니다. 그럼 왜 이것을 추가 조사하였는가는 우리에게 주어진 시간이 얼마나 되는가를 짐작하기 위함이었습니다. 애석하게도 이제 정말 시간이 없다는 결론을 다시 확인하였습니다.


모두가 기술에 발전에만 집중하고 기술을
어떻게 활용할 것인가에만 집중하고 있습니다.


이것은 매우 위험한 발전과 혁신 현상입니다. 이미 다른 책에서 이야기한 것처럼 과거에는 기술이 먼저 발전하고 그로 인해 생기는 악역향이나 사회문제들에 대해 뒷수습이 가능한 수준이었지만, 인공지능 시대에는 그 깊이나 충격의 폭이 너무 크고 깊어 되돌리기 어려운 상황이 될 수 있기 때문입니다.


더욱 큰 문제는 나와 같은 소수의 사람들이 걱정하고 있는 것들은 사회와 경제를 이끄는 대부분의 리더들에게 소외되거나 그들이 생각조차 하지 않고 있다는 게 문제라고 말씀드리고 싶습니다. 물론 그분들에게는 그분들 나름대로의 합당한 이유가 있습니다. 그것을 비난하고자 함이 아닙니다. 내가 그 자리에 있다면 나도 그럴 수 있다는 전제하에 이야기하고자 합니다.


AGI의 빠른 등장이 문제라고 말씀드리는 이유는 이 기술혁신이 왜 필요하며 어디에 어떻게 쓰일 것인지 누구를 위해 쓰일 것인지와 같은 근본적인 물음에 대한 답도, 계획도, 사회적 합의도 없는 뒤가 없는 기술 혁신이기 때문입니다. 구체적인 문제들에 대해서는 너무 많고 전작에 내용이 있는 관계로 생략합니다. (하지만 앞으로 다시 더 구체적으로 다뤄볼 생각입니다.)


지금의 AI 발전 구조는 “방향 없는 가속”처럼 보입니다. 현재 내가 분석한 AI 생태계의 공통된 특징은 다음과 같습니다.

기술발전의 속도: 지수적

사회적 합의/윤리/제도/로드맵: 선형 혹은 정체

인간의 판단/책임 구조: 점점 축소


즉,

무엇을 만들 수 있는가는 폭증했지만,

무엇을 만들어야 하는가와 어디까지 허용해야 하는가는 비어있다는 것입니다.

이 공백에 대해서 지금까지 시장, 정부, 기술 기업 중 어느 곳에서도 제대로 책임을 지지 않고 이에 대한 움직임도 미미해 보입니다.

이것들에 대한 본격적인 이야기들을 앞으로 더 연구하고 공유하며 여기에 공감하는 사람들과 이 빈 곳을 채우는 일을 해보려 합니다.


먹고살기도 힘든데 꼭 그걸 해야겠냐는 질문에 꼭 해야 한다는 답을 미리 드리려고 합니다. 오히려 이 연구로 먹고살 길이 더 열리게 더 열심히 해 보려고 합니다.


이 일은 인류나 세상을 위한 대단한 일이라기보다 인공지능 발전 속도만큼 빠르게 크고 있는 우리 집 아이들의 미래를 위해서도 꼭 필요한 일이라 생각되어 가장 우선순위에 이 일을 놓고자 합니다.


처음에는 아무도 나와 같은 생각을 하는 이가 없었으나 일이 년 시간이 흐르면서 같은 생각을 하고 나의 생각에 공감하는 분들이 늘어감을 보며 이 방향성은 틀린 것이 아니라는 확신을 다시 한번 가지게 되었습니다.


이 글과 앞으로 연구하고 공유하게 될 글들에 많은 응원과 격려, 그리고 참여가 생겨나기를 고대해 봅니다.