03 알고리즘이 선별하는 세상

by 동쟌


[ 소중한 시간을 아껴친절한 요약 ]

알고리즘은 이제 개인의 취향뿐 아니라 채용, 금융 등 사회적 선별의 기준으로 기능하고 있다.

이 과정에서 편향된 데이터와 블랙박스 구조가 공정성과 자율성을 침식시키고 있다.

AI 시대의 핵심 과제는 인간의 결정권 회복과 알고리즘의 투명성 확보다.




[ 본문 ]


많은 기준이 ‘보이지 않는 곳’에서 작동한다. 사람의 말보다 말하기 전에 남긴 흔적이 더 신뢰받는다. 이제는 알고리즘이 사람을 먼저 분류하는 시대다. 평가는 점점 더 빨라지고, 설명은 점점 더 줄어든다. 우리는 그 기준을 직접 본 적도, 질문할 기회도 없이 결과만 받는다.

이 구조는 공정해 보인다. 빠르고 일관되며, 개인의 노력보다 더 객관적인 기준을 제시한다고 여겨진다. 기술이니까, 데이터니까, 사람보단 덜 감정적일 거라는 기대가 깔려 있다. 하지만 기술이 기준을 만든 적은 없다. 기준은 언제나 사람의 역사, 그리고 사회의 통념 안에서 만들어진다.

그렇다면 지금의 알고리즘은 과연 무엇을 반영하고 있을까. 누구는 쉽게 통과하고, 누구는 이유도 모른 채 걸러지는 이 구조 속에서 우리는 무엇을 증명해야 살아남을 수 있을까.

이 장은, 우리가 어떻게 ‘선택하는 존재’에서 ‘선별되는 대상’으로 바뀌었는지, 그리고 그 변화가 개인의 기회, 감정, 사회 구조에 어떤 균열을 만들어내고 있는지를 함께 살핀다.




(3.1) 자동 추천 시스템의 비약적 발전


초기 추천 알고리즘의 탄생 배경

인터넷 초창기, 웹사이트들은 정보의 홍수 속에서 사용자의 선택을 돕기 위해 다양한 정렬 방식을 고민했다. 가장 보편적인 방식은 "인기 순 정렬"이었다. 이후 전자상거래와 콘텐츠 플랫폼이 확대되면서, 사용자 맞춤 추천 시스템이 등장했다. 초기에는 별점, 구매 이력 등을 바탕으로 비슷한 사용자 그룹의 선호를 분석해 추천하는 방식이 사용됐다. 이 시스템은 사용자가 원하는 콘텐츠를 빠르게 찾도록 도왔고, 플랫폼의 체류 시간을 늘리는 효과도 가져왔다.


딥러닝과 정교한 개인화의 시대

이후 딥러닝이 발전함에 따라, 추천 알고리즘은 단순 매칭을 넘어 사용자의 ‘숨은 의도’를 파악하기 시작했다. 시청 이력, 검색 기록, 클릭 횟수, 체류 시간까지 다각도로 분석해, 드러나지 않은 취향까지 추론하는 구조가 형성된 것이다. 넷플릭스나 유튜브 같은 플랫폼은 방대한 동영상 콘텐츠에 대한 메타데이터를 축적하고, 거기에 딥러닝 모델을 적용해 “사용자가 다음에 보고 싶을 만한 영상”을 귀신같이 골라낸다. 이런 시스템이 잘 돌아가면 사용자는 자신도 몰랐던 취향의 작품을 발견하기 쉽고, 플랫폼 입장에서는 체류 시간을 늘려 수익을 극대화할 수 있다.

물론 추천 시스템이 지나치게 개인화되면, ‘취향의 편식’이 심해져 새로운 시도를 막는 부작용도 있다. 하지만 사용자들이 원하던 건 결국 “적은 노력으로 원하는 것을 찾는 편리함”이었기에, 기업들은 더욱 정교한 모델을 개발해 요구에 부응했다. 그렇게 추천 알고리즘은 서비스 품질의 핵심으로 자리 잡았다. 이제는 전자상거래, SNS, 음악·영상 스트리밍, 뉴스 등 온갖 분야에서 ‘자동 추천 시스템’이 방대한 옵션을 걸러주고, 사용자는 그 결과를 별다른 의심 없이 받아들이는 시대가 되었다.




(3.2) AI 의사결정 : 채용, 신용평가


알고리즘이 선별하는 인재

알고리즘이 개인 추천을 넘어 ‘의사결정’ 영역으로 확대된 대표적 사례 중 하나가 채용이다. 대형 기업들과 HR 테크놀로지 업체들은 구직자의 자기소개서, 이력서, 심지어 온라인 활동 이력 등 다양한 데이터를 기반으로 지원자를 1차 선별하거나, 심지어 화상 면접을 진행하는 과정에서도 AI 분석 결과를 참고하기도 한다. 예컨대 지원자의 말투나 표정, 목소리 톤을 실시간으로 분석해 “조직 적합도”를 예측하는 시스템도 등장했다. 회사 입장에서는 인사 담당자의 편견이나 주관적 감각보다는 대량의 데이터와 통계 모델이 더 객관적이며 효율적이라고 믿는 경향이 강하다.

하지만 여기에 위험도 따른다. AI 모델이 어떤 데이터셋을 학습했느냐에 따라, 특정 성별이나 인종, 학력에 치우친 결과를 내놓을 수 있기 때문이다. 일례로 IT 분야에서 남성이 훨씬 많이 일해온 과거 이력을 학습한 AI가, 무의식적으로 여성 지원자에게 불리한 점수를 매길 위험이 현실에서 보고됐다. 결론적으로 채용에 쓰이는 AI가 정확도를 높이려는 의도로 도입되었지만, 이미 편향된 역사적 데이터를 학습하면 오히려 차별을 고착화할 가능성이 커진다.


금융 신용평가의 자동화

금융권에서도 AI 의사결정이 활발히 활용되는 분야가 신용평가다. 과거엔 대면 상담, 소득증빙 서류, 신용등급 같은 정형화된 지표가 평가의 전부였다. 그러나 AI를 도입하면, 개인의 상환 이력뿐 아니라 소비 패턴, SNS 활동, 심지어 스마트폰에 깔린 앱 목록까지 분석해 대출 가능성과 이자율을 결정할 수 있다는 점에서 크게 주목받았다. 예컨대 “쇼핑몰 결제 빈도가 높은 사람”이 부채 위험이 크다거나, “매일 새벽에 특정 사이트에 접속하는 사용자”가 리스크가 높다는 식의 상관관계가 데이터로부터 추론될 수 있다.

기업들은 이를 “금융 소외 계층도 포용할 수 있는 혁신”이라고 홍보하지만, 동시에 어느 선까지 개인정보를 끌어다 써야 하는지 윤리적 딜레마에 직면한다. 또한 초기 데이터가 편향돼 있으면, 특정 지역이나 특정 계층 사용자가 일방적으로 불리한 신용평가를 받기도 한다. AI는 어디까지나 학습 대상이 된 과거 사례를 바탕으로 미래를 예측하기 때문에, 부당한 패턴이 발견될 경우 정정하기가 쉽지 않다. 사용하는 변수와 가중치를 어떻게 설계했는지 투명하게 공개되지 않는 한, 개인은 자신의 대출 거절이나 금리 인상이 정확히 어떤 근거였는지 알기 어렵다.




(3.3) 알고리즘 편향의 실체


편향이란 무엇인가

알고리즘 편향이란, 모델이 의도치 않게 특정 그룹이나 특성을 선호하거나 배척하게 되는 현상을 말한다. 예컨대 인종·성별·연령에 따라 다른 점수를 부여하거나, 특정 지역 출신을 자동으로 가산·감산하는 식의 결과가 발생할 수 있다. 이는 AI가 악의를 품어서가 아니라, 훈련에 사용된 데이터 자체가 이미 편향되어 있기 때문이다. 사람이 살아온 역사적 맥락이 차별적이었다면, 그 패턴이 데이터에 고스란히 담기고, 모델이 그걸 그대로 ‘학습’하게 된다.

일부는 “알고리즘은 감정이 없으니 오히려 공정할 것”이라고 생각하지만, 사실은 정반대 경우가 많다. 사람이 직접 차별하지 않더라도, 과거 차별이 축적된 데이터에서 배우면 모델은 그 편향을 합리적 규칙인 양 받아들인다.


현실 사례와 파급 효과

실제 기업의 채용 AI가 여성에게 불리한 판단을 내려 중단된 사례나, 이미지 인식에서 특정 인종의 얼굴을 잘못 인식하는 문제가 보고되기도 했다. 기술의 미성숙보다, 편향된 데이터를 비판 없이 학습시키는 것이 더 근본적인 문제다. 특히 AI가 대규모 의사결정에 활용될수록, 그 여파는 더 커질 수밖에 없다.

더 큰 문제는 AI가 제공하는 결과가 ‘객관적’이라고 사회가 착각하기 쉽다는 점이다. 수학적 계산과 통계를 통해 도출된 결론이니 편향이 없을 거라고 믿고, 거기서 피해를 보는 사람이 항의해도 “알고리즘이 결정한 것”이라는 식으로 대응하기 쉽다. 정작 그 알고리즘의 내부 작동 원리는 복잡한 신경망 또는 블랙박스 형태라, “왜 이런 결과가 나왔는지”조차 설명하기 어렵다. 결국 차별과 불공정이 ‘디지털 합리성’이라는 외피를 입고 가려지는 상황이 올 수 있다.


편향 대응 전략

알고리즘 편향 문제를 해결하기 위해, 기업과 연구자들은 데이터셋을 다양하게 구성하거나, 모델 훈련 과정에서 특정 변수의 영향을 줄이는 기법을 시도한다. 예컨대 인종이나 성별, 나이를 분리해 모델에 주입함으로써, 민감 정보를 직접 취급하지 않도록 설계할 수도 있다. 하지만 실제로는 민감 정보를 제거해도 간접적으로 비슷한 효과가 발생할 수 있다.

따라서 진정한 해결책은 “데이터와 모델 전체를 투명하게 검증하고, 지속적으로 편향 여부를 모니터링해 수정하는 일”에 달려 있다는 인식이 커졌다. 일부 정부나 학계에서 알고리즘 평가를 의무화해야 한다고 주장하는 것도 같은 맥락이다. 하지만 기업 입장에서는 기술 노하우를 노출하기 꺼리는 면이 있고, 규제나 감사를 통한 강제력이 얼마나 실효성을 발휘할지도 미지수다. 그럼에도 편향은 AI 시대의 가장 심각한 문제 중 하나로 꼽히기에, 앞으로 지속적으로 기술적·제도적 보완책이 논의될 전망이다.




(3.4) 공정성 vs. 효율성


알고리즘 효율이 가져다준 장점

AI와 알고리즘 기술이 급속히 발전하면서, 사람들은 “효율성을 획기적으로 높인다”는 사실을 가장 먼저 체감했다. 추천 시스템이 시간을 절약해주고, 대규모 데이터를 정교하게 분석해 의사결정을 빠르게 내리게 하며, 인력 비용을 줄여 비용 효율까지 높인다. 기업이나 기관들은 이런 장점 때문에 적극적으로 알고리즘을 도입했고, 사용자들도 일상에서 편리함을 누리고 있다.


공정성과의 충돌

그러나 ‘효율 극대화’가 전부는 아니라는 점이 점차 부각됐다. 알고리즘이 불투명한 방식으로 실행되거나, 특정 계층을 무시하는 편향을 내재할 수 있다는 사실이 드러났기 때문이다. 과거엔 인사 담당자나 심사원이 주관적으로 판단하던 일을 AI가 맡게 되면서, 그 주관 대신 데이터에 숨은 구조적 차별이 재현될 위험이 커졌다. 그럼에도 대형 기업은 비용 절감과 생산성 향상을 이유로 알고리즘 채택을 가속화하고 있다.

공정성의 문제는 단순히 “AI가 차별한다” 수준에 머물지 않는다. 효율을 쫓는 알고리즘이 어떤 지표를 최적화하고 있는지, 그 지표에서 배제된 가치(예 : 약자를 보호하려는 사회적 의무)는 어떻게 보완하는지가 관건이다. 특히 의료나 복지 분야에서는 AI가 효율적인 경로로 환자를 분류해도, 사회적 약자에게 불이익이 돌아간다면 문제가 된다. 결국 공정성과 효율성이 동시에 중요하다는 인식이 확산되면서, 기술만으로 해결하기 어렵다는 판단도 커지고 있다.


공정성과 효율성을 함께 추구하려면

공정성과 효율성을 동시에 잡으려면, “어떤 기준으로 알고리즘을 평가할지”를 사회적으로 합의해야 한다는 주장이 힘을 얻는다. 예컨대 모델이 정확도를 5% 정도 포기하더라도, 특정 그룹에 대한 불공정 결과를 줄이는 방향으로 설계할 수 있다. 이런 조정은 당장의 효율 지표를 떨어뜨릴 수 있지만, 장기적으로 사회적 신뢰를 구축해 더 큰 이익을 가져올 수 있다는 시각도 있다.

물론 효율과 공정성을 세밀히 조율하는 작업은 결코 간단치 않다. 기업 이윤, 정부 정책, 시민 단체의 요구가 엇갈리기 마련이기 때문이다. 그럼에도 현재 속도로 알고리즘 의사결정이 확산된다면, 공정성 논란은 갈수록 커질 것으로 보인다. AI 시대는 “분명히 효율적이지만, 어딘가 불편하고 불투명한” 결정이 늘어날 가능성이 크고, 이를 제어하기 위한 다양한 해법이 모색되어야 할 시점이다.




(3.5) 필터버블을 넘어서는 노력


필터버블의 함정

동영상·뉴스·SNS 추천이 내가 좋아하고 공감하는 정보만 반복 노출하면, 정반대 시각을 접하기 어렵게 된다. 이용자는 자신이 듣고 싶은 말만 들으며 더욱 확신을 강화하는데, 이는 사회적 갈등이나 극단화를 부추길 수 있다.


다양성 노출을 위한 시도

일부 플랫폼은 필터버블을 줄이기 위해 “가끔은 의외의 콘텐츠를 섞어 보여주자”는 알고리즘 정책을 도입하기도 했다. 사용자 교육 역시 강조된다. 예컨대 “이 추천 목록은 특정 기준에 의해 생성되었으며, 다른 견해를 보려면 이렇게 하라”는 안내문을 제시하는 식이다. 검색 포털에서도 ‘다양성 노출 알고리즘’을 적용해, 단순 인기나 내 취향만 반영하는 대신 여러 스펙트럼의 정보가 화면에 등장하도록 기획하기도 한다.


한계와 의미

그러나 결국 플랫폼이 수익을 극대화하려면 사용자 체류를 늘리는 쪽으로 시스템을 설계할 수밖에 없기에, 필터버블을 완전히 없애긴 어렵다는 평가가 지배적이다. 그래도 의도적으로 다른 관점을 노출하거나, 이용자에게 “왜 이 콘텐츠가 추천됐는지”를 설명하는 시도는 의미가 있다. 알고리즘의 폐쇄성을 조금이라도 열고, 사용자 스스로 다양한 시각을 찾아볼 기회를 확대해 주려는 노력이기 때문이다. 앞으로도 필터버블을 넘어서는 다양한 접근법이 연구·도입될 전망이다.




(3.6) 자율성 침해인가, 맞춤 편의 극대화인가


‘AI가 대신 골라주는’ 삶의 편리함

알고리즘 추천과 자동화가 고도화될수록, 사람들은 여러 선택지를 직접 탐색하는 수고를 덜 수 있다. 무엇을 볼지, 어떤 상품을 살지, 심지어 어느 식당을 갈지도 AI가 대신 골라주는 시대가 됐다. 바쁜 현대인에게 이는 상당히 매력적이다. 오랜 시간 비교·평가하지 않아도, 시스템이 “이 조건이라면 이게 최적”이라고 판단해 결과를 뚝 던져주기 때문이다.


자율성 침해 우려

그러나 이러한 편리함이 쌓일수록, 개인의 자율성이 축소된다고 느끼는 이들도 늘어난다. 자신이 스스로 결정하고 있다고 생각하지만, 사실은 플랫폼이 전해주는 정보나 추천 목록 안에서만 고민하고 있기 때문이다. 여행지를 고르는 과정에서 “베스트 10”만 확인하거나, 헤드라인 뉴스만 빠르게 훑는 식으로 “알고리즘이 좁혀준 선택지” 안에 머무는 경향이 짙어질 수 있다. 이런 자동화가 계속되면 사람들이 자기 결정을 포기하고 시스템 제안을 그대로 따르는 식으로 점차 ‘판단력 퇴화’ 현상을 보일지도 모른다는 우려가 있다.


딜레마와 앞으로의 과제

이렇게 AI가 대신 골라주는 편의를 극대화하느냐, 아니면 사용자가 의식적으로 자율적 탐색을 어느 정도 유지하느냐는 디지털 시대의 핵심 딜레마가 됐다. 플랫폼을 장악한 대기업 입장에서는 “사용자의 시간과 노력을 절약한다”는 명분이 있고, 사용자의 상당수도 “편리하면 그만”이라고 생각하기 쉽다. 문제는 이 과정에서 사람들이 무엇을 놓치고 있는지 깨닫기 어려워질 수 있다는 점이다. 알고리즘이 최적화하지 않은 선택지는 아예 시야에 들어오지 않으므로, 새로운 시도나 대안적 의견을 만나지 못하고 일종의 자동화된 ‘울타리’ 안에 갇힐 위험도 있다.

결국 이 딜레마를 해결하기 위해선 사용자 교육과 시스템 설계가 함께 개선돼야 한다. 일부 서비스는 기본 옵션 대신 직접 탐색 모드를 제공해, 원하는 사람은 얼마든지 스스로 정보를 찾아볼 수 있게끔 설계하기도 한다. 또한 “알고리즘이 전부가 아니다”라는 인식이 확산돼야, 사람들이 선택하는 순간마다 한 번쯤 더 자신의 의사를 확인할 기회를 갖게 될 것이다.





(3.7) 투명성·설명가능성(XAI)의 과제


블랙박스 문제

딥러닝 기반 알고리즘은 무수히 많은 가중치와 신경망 층을 통해 결과를 도출하기 때문에, 그 내부 과정을 사람이 직관적으로 이해하기 쉽지 않다. 이를 두고 ‘블랙박스 문제’라고 부른다. 예컨대 의료 진단 모델이 “이 환자는 위험도가 높다”고 결론 내렸다고 해도, 정확히 어떤 요인 때문에 그런 판단을 했는지 명확히 설명하기 어렵다. 데이터의 패턴을 찾아내는 과정이 복잡한 수학적 연산으로 이뤄지기 때문이다.

이런 블랙박스 문제는 알고리즘에 대한 불신을 키우고, 오류나 편향이 생겼을 때 빠르게 수정하기 어렵게 만든다. 특히 사람의 생명이나 자산, 권리에 직결되는 의사결정(채용, 의료, 금융 등)을 AI가 담당할 경우, “결과가 왜 그렇게 나왔는가”라는 질문에 답하는 게 중요하다. 하지만 블랙박스 모델은 “학습 결과가 그렇다” 이상의 설명을 제공하지 못하므로, 불투명하고 무책임한 시스템이 될 위험이 높다.


설명가능 AI(XAI) 노력

이 문제를 해결하기 위한 접근으로 XAI(eXplainable AI)가 주목받고 있다. 이는 모델이 내놓은 판단을 사람이 이해할 수 있는 형태로 해석·설명해주려는 기술·방법론을 통칭한다. 예를 들어 이미지 분류 모델이 특정 부위를 강조하면서 “이 패턴이 고양이라고 추론한 주요 근거”라고 시각화하거나, 텍스트 분류 모델이 “이 단어와 문맥이 결정적이었다”고 하이라이트해 보여주는 식이다. 이런 시도는 사용자나 규제 기관에게 모델의 작동 원리에 대한 일종의 가시성을 부여한다.

또 다른 방법론으로 ‘특성 중요도(Feature Importance)’ 분석이 있다. 예컨대 금융 신용평가 모델이 20개 변수를 사용한다면, 각 변수가 결과에 얼마나 영향을 미쳤는지 비율로 보여주는 식이다. 이를 통해 당사자는 “왜 내 점수가 이렇게 나왔나”를 어느 정도 짐작할 수 있다. 물론 이런 해석이 100% 완벽하지는 않지만, 최소한 블랙박스보다는 책임 소재를 따지기 쉬워진다.


제도적 뒷받침과 실제 어려움

설명 가능성을 높이기 위해선 기술적 해결책뿐 아니라, 법·제도적 장치도 필요하다. 일부 국가나 지역에서는 “중요한 의사결정에 AI를 활용할 경우, 결과에 대한 설명을 제공해야 한다”는 규정을 마련하고 있다. GDPR(유럽연합의 일반개인정보보호법) 역시 사용자에게 “왜 이 결과가 도출됐는지 설명받을 권리”를 인정한다. 문제는 최첨단 모델일수록 내부 구조가 워낙 복잡해, 간단한 시각화나 가중치 공개만으로는 충분히 설명하기 힘들다는 점이다. 실제로 모델 개발사들은 “비즈니스 기밀”을 이유로, AI 모델의 신경망 가중치를 공개하지 않으려는 태도를 보이기도 한다.

또한 설명 가능한 형태로 모델을 단순화하면, 정확도나 효율이 떨어질 수도 있다. 복잡한 딥러닝 모델일수록 성능이 높아지는 경향이 있지만, 그만큼 “어떻게 이런 결론에 도달했는지”를 이해하기 어렵다. 따라서 기업이나 기관 입장에서는 정확도와 설명 가능성 중 어느 쪽을 우선시할지가 또 다른 난관이다. 소비자나 시민 단체는 투명성을 요구하지만, 개발사는 성능이 곧 경쟁력이라고 주장한다.

투명성과 설명 가능성 문제는 단순 유행이 아니라, AI가 사회 전반으로 뿌리내릴수록 더욱 중요한 이슈가 될 것이다. 블랙박스 모델을 방치하면 불신과 오류가 극심해질 수 있고, 개인의 권리가 침해당해도 구제 절차가 복잡해진다. 반대로, XAI 기술을 잘 적용하면 사용자 신뢰를 얻고, 기업도 설명 책임을 다해 사회적 반발을 줄일 수 있다. 결국 “얼마나 이해하기 쉬운 AI를 만들 것인가”가 기술 발전과 더불어 논의되어야 하며, 이 과제를 해결하지 못하면 알고리즘 의사결정이 사회적으로 수용되기 어려워질 가능성이 높다.




(3.8) 인간 결정권의 미래


기계와 인간의 역할 변화

알고리즘이 폭발적으로 발전하며, 사람들은 다양한 결정을 기계에게 넘겨주고 있다. 뉴스 큐레이션, 상품 추천, 주식 매매, 진단·분석까지, “AI가 해줄 테니 편히 맡기자”는 인식이 널리 퍼졌다. 문제는 이 흐름이 이어지면 인간이 담당해야 할 ‘책임’과 ‘선택권’이 점점 줄어들 수 있다는 점이다. 작은 것부터 큰 것까지, 결국 기계에 의존해 모든 결론을 내리게 되면 인간 결정권이 유명무실해질 위험이 생긴다.


인간이 남아야 할 영역

그렇다면 AI가 모든 걸 대체해도 되는 걸까? 일각에서는 윤리·가치 판단이나 창의성 발휘 같은 영역은 여전히 인간이 책임져야 한다고 주장한다. 의료 진단을 예로 들면, 알고리즘이 환자의 상태를 분류하더라도, 실제 치료 방침이나 환자와의 소통은 의사가 맡아야 한다는 식이다. 마찬가지로 금융이나 법률 분야에서도, 최종 결정에선 인간이 개입해 예상치 못한 변수를 고려해야 한다는 목소리가 나온다.


함께 결정하는 시대

결국 인간 결정권의 미래는 ‘AI와 사람의 협업’이라는 방향으로 갈 가능성이 크다. 알고리즘이 제안한 옵션을 사람이 검토·조정하거나, 효율성을 높이되 마지막 통제권은 사람에게 두는 방식이다. 물론 이를 위해선 사용자 스스로도 AI가 주는 추천을 비판 없이 수용하지 않고, 어느 정도 판단력을 유지할 필요가 있다. 기계가 아무리 똑똑해져도, 인간이 직접 책임져야 할 문제가 남아 있다는 사실은 변치 않을 것이라는 점을 인식해야 한다.




※ 참고문헌(이 글의 개념과 논의는 아래 책들을 발췌 또는 요약을 통해 참고하여 재해석해 구성했습니다.)

Cathy O’Neil (2016). *Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy*. Crown.

Kate Crawford (2021). *Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence*. Yale University Press.

Sandra Wachter, Brent Mittelstadt, Chris Russell (2017). *Counterfactual Explanations without Opening the Black Box: Automated Decisions and the GDPR*. Harvard Journal of Law & Technology.

Stuart Russell (2019). *Human Compatible: Artificial Intelligence and the Problem of Control*. Viking.

keyword
월, 금 연재
팔로워 14
이전 02화02 데이터 경제와 개인정보