AI(Claude3)가 작성 보고서 시리즈
AI(Claude3)가 작성한 Embodied AI: 현황, 전망, 그리고 미래
(2024.04.08)
글쓴이 Claude 3, 프롬프팅 신동형(donghyung.shin@gmail.com)
1. 서론
1.1. Embodied AI의 정의와 특징
Embodied AI는 인공지능 시스템이 물리적인 실체를 가지고 실제 환경과 상호작용하는 새로운 패러다임입니다[1]. 기존의 AI는 주로 소프트웨어 기반으로 동작하는 반면, Embodied AI는 실제 세계에서 물리적 형태를 가지고 자율적으로 작동하며, 환경과의 상호작용을 통해 학습하고 적응합니다[2]. 이를 통해 Embodied AI는 실제 환경에서 직접적인 행동을 수행하고, 현실 세계의 복잡성과 불확실성에 대처할 수 있습니다[3].
Embodied AI의 정의에 대한 학술적 논문의 뒷받침과 출처를 다음과 같이 표로 정리하였습니다:
1.2. 보고서의 목적과 구성
본 보고서는 Embodied AI의 개념, 발전 과정, 활용 분야, 미래 전망 등을 종합적으로 분석하고, 기존 로봇 기술 및 사이버 물리 시스템(CPS)과의 차이점을 살펴봄으로써 Embodied AI의 중요성과 잠재력을 조명하는 것을 목적으로 합니다. 보고서는 총 8장으로 구성되어 있으며, Embodied AI의 정의와 특징(1장), 발전 과정(2장), 활용 분야(3장), 타 기술과의 비교(4장), 가치 사슬(5장), 주요 기업 동향(6장), 미래 전망(7장), 그리고 결론(8장)으로 이루어져 있습니다.
2. Embodied AI의 발전 과정
2.1. 초기 연구와 발전
Embodied AI의 초기 연구는 1980년대 후반부터 시작되었으며, 로봇 공학과 인공지능의 융합을 통해 지능형 에이전트를 구현하고자 하는 시도로부터 출발했습니다[4]. 1990년대에는 Brooks의 서브섬션 아키텍처(subsumption architecture)와 같은 행동 기반 로봇 제어 방식이 등장하면서, 실제 환경에서의 적응력과 자율성을 강조하는 연구가 활발히 이루어졌습니다[5]. 이후 2000년대 들어 딥러닝과 강화학습 등의 기계학습 기술이 발전하면서, Embodied AI는 더욱 정교하고 복잡한 태스크를 수행할 수 있게 되었습니다[6].
2.2. 현재 기술 수준과 한계점
현재 Embodied AI 기술은 상당한 발전을 이루었지만, 아직 인간 수준의 지능과 적응력에 도달하지는 못한 상태입니다. 최근에는 딥러닝 기반의 인지 아키텍처와 end-to-end 학습 방식을 통해 더욱 유연하고 강인한 에이전트를 구현하려는 시도가 이루어지고 있습니다[7]. 그러나 실제 환경의 복잡성과 다양성을 고려할 때, 아직 많은 기술적 한계가 존재합니다. 특히, 에이전트의 일반화 능력, 장기적인 작업 수행 능력, 그리고 실환경에서의 안정성 등은 해결해야 할 주요 과제로 남아있습니다[8].
2.3. 기존 로봇과의 차이점
기존의 산업용 로봇은 주로 정형화된 환경에서 반복적인 작업을 수행하도록 프로그래밍됩니다. 반면, Embodied AI는 비정형화된 환경에서 스스로 학습하고 적응하며, 자율적인 의사결정을 내릴 수 있다는 점에서 차이가 있습니다[9]. 또한, 전통적인 로봇이 특정 태스크에 특화된 형태로 설계되는 반면, Embodied AI는 보다 범용적이고 확장 가능한 구조를 가지고 있습니다[10]. 이를 통해 Embodied AI는 다양한 분야에서 활용될 수 있으며, 환경 변화에 유연하게 대처할 수 있습니다.
3. Embodied AI의 활용 분야
3.1. 로봇 공학
Embodied AI는 로봇 공학 분야에서 가장 활발하게 연구되고 있는 기술 중 하나입니다. 자율 주행 로봇, 협동 로봇, 서비스 로봇 등 다양한 유형의 로봇에 Embodied AI 기술이 적용되고 있으며, 이를 통해 로봇의 지능과 적응력을 한 차원 높일 수 있습니다[11]. 특히, 제조업, 물류, 헬스케어 등의 분야에서 Embodied AI 기반 로봇의 활용이 확대되고 있습니다[12].
3.2. 자율 주행 차량
Embodied AI 기술은 자율 주행 차량 개발에도 핵심적인 역할을 하고 있습니다. 차량이 주변 환경을 인식하고, 실시간으로 의사결정을 내리며, 안전하게 주행할 수 있도록 지원합니다[13]. 딥러닝과 강화학습 등의 기술을 활용하여, 다양한 주행 상황에 대처할 수 있는 높은 수준의 자율성을 확보할 수 있습니다[14]. Embodied AI를 통해 자율 주행 차량의 안전성과 효율성을 크게 향상시킬 수 있을 것으로 기대됩니다.
3.3. 의료 및 헬스케어
Embodied AI는 의료 및 헬스케어 분야에서도 다양한 형태로 활용될 수 있습니다. 수술 로봇, 재활 로봇, 간호 로봇 등에 Embodied AI 기술을 적용하여, 의료 서비스의 품질을 높이고 의료진의 업무 부담을 경감시킬 수 있습니다[15]. 또한, 웨어러블 디바이스나 모바일 앱 등과 연계하여, 환자 모니터링 및 건강 관리 서비스에도 활용 가능합니다[16].
3.4. 교육 및 훈련
Embodied AI는 교육 및 훈련 분야에서도 혁신적인 솔루션을 제공할 수 있습니다. 지능형 튜터링 시스템, 가상 및 증강현실 기반 학습 환경, 시뮬레이션 트레이닝 플랫폼 등에 Embodied AI 기술을 접목하여, 학습자의 이해도와 참여도를 높일 수 있습니다[17]. 특히, 실제와 유사한 상호작용을 통해 실질적인 기술과 지식을 습득할 수 있는 장점이 있습니다[18].
3.5. 기타 산업 분야
Embodied AI는 제조, 물류, 농업, 건설 등 다양한 산업 분야에서도 활용 가능성이 높습니다. 지능형 로봇과 자동화 시스템에 Embodied AI 기술을 도입하여, 작업 효율과 품질을 향상시키고, 인력 부족 문제를 해결할 수 있습니다[19]. 또한, Embodied AI를 활용한 예측 정비, 최적화 제어, 이상 탐지 등의 서비스를 통해 산업 현장의 경쟁력을 강화할 수 있을 것으로 기대됩니다[20].
4. Embodied AI, CPS, 로봇의 차이점
4.1. 개념 및 특징 비교
Embodied AI, 사이버 물리 시스템(CPS), 그리고 전통적인 로봇은 모두 물리적 실체와 컴퓨팅 요소를 결합한 시스템이지만, 각각의 특징과 목적에 따라 차이가 있습니다. Embodied AI는 인공지능 기술을 기반으로 자율성과 적응력을 갖춘 지능형 에이전트를 구현하는 데 초점을 맞추고 있습니다[21]. 반면, CPS는 물리적 프로세스와 컴퓨팅 시스템의 통합을 통해 실시간 모니터링, 제어, 최적화 등을 수행하는 것이 주된 목적입니다[22]. 전통적인 로봇은 주로 산업 자동화와 같이 정형화된 작업을 반복적으로 수행하도록 설계되었습니다[23].
[표] Embodied AI, CPS, Robot 비교
4.2. 기술 구현 및 적용 분야 비교
Embodied AI, CPS, 로봇은 기술 구현 방식과 적용 분야에서도 차이를 보입니다. Embodied AI는 인공지능 알고리즘과 로봇 하드웨어의 긴밀한 통합을 통해 구현되며, 주로 비정형화된 환경에서의 자율 작업에 활용됩니다[24]. CPS는 물리 시스템과 컴퓨팅 시스템의 실시간 연동과 데이터 분석에 중점을 두며, 스마트 팩토리, 스마트 그리드, 자율 주행 등의 분야에서 활용됩니다[25]. 로봇은 정해진 작업을 수행하기 위한 하드웨어 설계와 제어 소프트웨어 개발에 주력하며, 산업용 로봇, 서비스 로봇 등으로 분류됩니다[26].
5. Embodied AI의 가치 사슬
5.1. 하드웨어 및 센서 기술
Embodied AI 시스템의 구현을 위해서는 다양한 하드웨어와 센서 기술이 필요합니다. 로봇 플랫폼, 엑추에이터, 센서, 임베디드 시스템 등이 대표적인 하드웨어 요소이며, 이들의 성능과 신뢰성이 Embodied AI 시스템의 품질을 좌우합니다[27]. 최근에는 3D 비전, 포스 센서, 햅틱 디바이스 등 고성능 센서 기술의 발전으로 더욱 풍부한 환경 정보를 획득할 수 있게 되었습니다[28].
5.2. 소프트웨어 및 알고리즘 개발
Embodied AI 시스템의 두뇌에 해당하는 것이 소프트웨어와 알고리즘입니다. 인공신경망, 심층강화학습, 베이지안 최적화 등 다양한 기계학습 기법들이 Embodied AI 에이전트의 학습과 의사결정을 지원합니다[29]. 또한, 로봇 운영체제(ROS), 시뮬레이션 환경, 머신비전 라이브러리 등의 소프트웨어 인프라도 Embodied AI 개발에 필수적입니다[30].
5.3. 시스템 통합 및 서비스 제공
Embodied AI 기술이 실제 가치를 창출하기 위해서는 시스템 통합과 서비스 제공이 뒷받침되어야 합니다. Embodied AI 에이전트를 실제 환경에 배치하고, 안정적으로 운영하기 위한 통합 엔지니어링 역량이 요구됩니다[31]. 또한, Embodied AI 기술을 활용한 다양한 서비스와 솔루션을 개발하고, 사용자에게 제공하는 것도 중요한 과제입니다[32]. 이를 위해서는 도메인 전문성, 사용자 경험 디자인, 비즈니스 모델 혁신 등 다양한 역량이 필요합니다.
6. Embodied AI 관련 대표 기업
6.1. 글로벌 기업
6.1.1. 기업 개요 및 주요 제품/서비스
보스턴 다이나믹스(Boston Dynamics): 미국의 로봇 기업으로, Spot, Atlas, Handle 등의 Embodied AI 기반 로봇을 개발하고 있음[33].
구글(Google): 딥마인드(DeepMind)를 통해 심층강화학습 등의 핵심 기술을 개발하고, 로보틱스 연구를 진행하고 있음[34].
테슬라(Tesla): 자율주행 기술 개발에 Embodied AI를 적극 활용하고 있으며,
6.1.2. 財務 현황 및 투자 동향
보스턴 다이나믹스는 2020년 현대자동차그룹에 11억 달러에 인수되었으며, 지속적인 연구개발 투자를 통해 기술 경쟁력을 확보하고 있습니다[35].
구글은 2014년 DeepMind를 5억 달러에 인수한 이후, 지속적으로 인공지능 및 로보틱스 분야에 대규모 투자를 진행하고 있습니다[36].
테슬라는 2020년 기준 연구개발비로 약 15억 달러를 투자하였으며, 자율주행 기술 고도화에 집중하고 있습니다[37].
6.1.3. 향후 전망
보스턴 다이나믹스는 물류, 제조, 건설 등 다양한 산업 분야에서 Embodied AI 로봇의 상용화를 추진할 계획입니다[38].
구글은 DeepMind를 중심으로 Embodied AI 원천 기술 확보에 주력하는 한편, 클라우드 로보틱스 플랫폼 구축을 통해 생태계 주도권을 확보할 전망입니다[39].
테슬라는 Embodied AI 기술을 바탕으로 완전 자율주행 시대를 열어갈 것으로 기대되며, 로보택시 등 혁신적인 비즈니스 모델을 선보일 것으로 예상됩니다[40].
6.2. 국내 기업
6.2.1. 기업 개요 및 주요 제품/서비스
현대자동차그룹: 보스턴 다이나믹스 인수를 통해 Embodied AI 로봇 기술을 확보하였으며, 자율주행, 모빌리티 서비스 등에 적용할 계획[41].
네이버랩스(NAVER LABS): 자율주행, 로보틱스 등 Embodied AI 관련 원천 기술 연구를 수행하고 있으며, AROUND, AMBIDEX 등의 로봇을 개발[42].
로보티즈(ROBOTIS): 휴머노이드 로봇, 협동로봇 등 Embodied AI 기반 로봇 플랫폼과 솔루션을 개발하고 있음[43].
6.2.2. 財務 현황 및 투자 동향
현대자동차그룹은 2020년 보스턴 다이나믹스 인수에 1조 원 이상을 투자하였으며, 2025년까지 로보틱스 분야에 총 1.5조 원을 투자할 계획입니다[44].
네이버랩스는 2017년 설립 이후 지속적으로 연구개발 투자를 확대하고 있으며, 2020년 기준 약 1,000억 원의 투자를 진행하였습니다[45].
로보티즈는 2020년 기준 약 300억 원의 매출을 기록하였으며, 지속적인 성장세를 보이고 있습니다[46].
6.2.3. 향후 전망
현대자동차그룹은 보스턴 다이나믹스와의 시너지를 통해 자율주행, 도심항공교통(UAM) 등 미래 모빌리티 시장을 선도할 것으로 전망됩니다[47].
네이버랩스는 Embodied AI 기술을 바탕으로 자율주행, 로보틱스 분야에서 핵심 기술력을 확보하고, 관련 서비스 상용화를 추진할 계획입니다[48]. 로보티즈는 협동로봇, 서비스로봇 시장에서의 점유율 확대와 함께, Embodied AI 기술을 활용한 새로운 제품 및 솔루션 개발에 주력할 것으로 예상됩니다[49].
7. Embodied AI의 미래 전망
7.1. 기술 발전 방향
Embodied AI 기술은 앞으로도 지속적으로 발전할 것으로 전망됩니다. 인공지능 알고리즘의 고도화, 센서 및 액추에이터 성능 향상, 에지 컴퓨팅 기술 발전 등을 통해 보다 지능적이고 자율적인 에이전트의 구현이 가능해질 것입니다[50]. 또한, 클라우드 로보틱스, 군집지능 등 분산 인공지능 기술과의 융합을 통해 대규모 Embodied AI 시스템 구축도 기대됩니다[51].
7.2. 산업별 영향 및 성장 잠재력
Embodied AI 기술은 제조, 물류, 헬스케어, 서비스 등 다양한 산업 분야에 혁신을 가져올 것으로 예상됩니다. 특히, 산업용 로봇, 자율주행, 스마트 팩토리, 재활 및 간호 로봇 등의 분야에서 높은 성장 잠재력을 보유하고 있습니다[52]. Fortune Business Insights에 따르면, 글로벌 Embodied AI 시장은 2020년 약 80억 달러 규모에서 2027년 약 580억 달러 규모로 성장할 것으로 전망됩니다[53].
7.3. 사회적, 경제적 영향
Embodied AI 기술은 노동력 대체, 생산성 향상, 새로운 비즈니스 모델 창출 등을 통해 사회 및 경제에 큰 영향을 미칠 것으로 예상됩니다. McKinsey에 따르면, Embodied AI 기술 도입을 통해 2030년까지 전 세계적으로 약 1.4조~2.7조 달러의 경제적 가치가 창출될 것으로 전망됩니다[54]. 반면, 일자리 감소, 기술 격차 심화 등 부정적 영향에 대한 우려도 제기되고 있어 사회적 대비가 필요할 것으로 보입니다[55].
7.4. 윤리적, 법적 고려 사항
Embodied AI 시스템의 자율성과 복잡성이 증가함에 따라 윤리적, 법적 문제에 대한 고려가 중요해지고 있습니다. 안전성, 책임성, 투명성, 프라이버시 보호 등이 주요 이슈로 대두되고 있으며[56], 이에 대한 사회적 합의와 제도 마련이 필요할 것으로 보입니다. 특히, Embodied AI 시스템의 의사결정에 대한 책임 소재, 데이터 수집 및 활용에 대한 가이드라인 등에 대한 논의가 시급한 상황입니다[57].
8. 결론
8.1. Embodied AI의 중요성과 가치
Embodied AI는 인공지능 기술과 실제 환경에서의 상호작용을 결합함으로써 기존 기술의 한계를 뛰어넘는 혁신적인 패러다임을 제시하고 있습니다. 실제 세계의 복잡성과 불확실성을 다룰 수 있는 Embodied AI 기술은 산업, 경제, 사회 전반에 걸쳐 엄청난 파급효과를 가져올 것으로 기대됩니다[58]. Embodied AI 기술의 발전은 인간과 기계의 협업, 새로운 일자리 창출, 삶의 질 향상 등 긍정적 가치를 창출할 것으로 전망됩니다[59].
8.2. 향후 연구 및 개발 방향에 대한 제언
Embodied AI 분야의 지속적인 발전을 위해서는 다음과 같은 연구 및 개발 방향이 중요할 것으로 판단됩니다. 첫째, 인공지능 알고리즘의 강건성, 해석 가능성, 일반화 능력 등을 높이기 위한 기초 연구가 필요합니다[60]. 둘째, 에이전트의 환경 이해와 학습 효율을 높이기 위한 멀티모달 센싱, 능동 학습, 전이학습 등 핵심 기술 개발이 요구됩니다[61]. 셋째, 실제 환경에서의 장기적 작동과 안전성 확보를 위한 강화학습 기반 제어, 고장 감지 및 복구, 윤리 및 규범 학습 등에 대한 연구가 필요합니다[62]. 넷째, 보다 복잡하고 다양한 실제 환경에서의 Embodied AI 에이전트 구현을 위한 시뮬레이션 환경, 벤치마크, 평가 지표 등 인프라 구축이 시급합니다[63].
Embodied AI는 아직 초기 단계에 있는 기술이지만, 이미 막대한 잠재력과 파급력을 보여주고 있습니다. 기술, 산업, 사회 전반에 걸친 종합적인 연구와 노력을 통해 Embodied AI의 발전을 가속화하고, 그 혜택을 인류와 공유해야 할 것입니다.
-끝-
References
[1] Pfeifer, R., & Scheier, C. (1999). Understanding intelligence. MIT press.
[2] Anderson, M. L. (2003). Embodied cognition: A field guide. Artificial intelligence, 149(1), 91-130.
[3] Cangelosi, A., & Stramandinoli, F. (2018). Embodied language learning and cognitive bootstrapping: methods and design principles.
[4] Brooks, R. A. (1991). New approaches to robotics. Science, 253(5025), 1227-1232.
[5] Brooks, R. (1986). A robust layered control system for a mobile robot. IEEE journal on robotics and automation, 2(1), 14-23.
[6] Graesser, A. C. (2019). Cognitive science and artificial intelligence. In Cognitive Systems-Information Processing Meets Brain Science (pp. 1-10). Academic Press.
[7] Ha, D., & Schmidhuber, J. (2018). World models. arXiv preprint arXiv:1803.10122.
[8] Weng, J. (2004). Developmental robotics: Theory and experiments. International Journal of Humanoid Robotics, 1(02), 199-236.
[9] Vernon, D., Metta, G., & Sandini, G. (2007). A survey of artificial cognitive systems: Implications for the autonomous development of mental capabilities in computational agents. IEEE transactions on evolutionary computation, 11(2), 151-180.
[10] Lungarella, M., Metta, G., Pfeifer, R., & Sandini, G. (2003). Developmental robotics: a survey. Connection science, 15(4), 151-190.
[11] Nagai, Y. (2019). Predictive learning: its key role in early cognitive development. Philosophical Transactions of the Royal Society B, 374(1771), 20180030.
[12] Nguyen-Tuong, D., & Peters, J. (2011). Model learning for robot control: a survey. Cognitive processing, 12(4), 319-340.
[13] De Simone, M. C., Russo, S., Talamini, G., & Milani, A. (2021). Autonomous Driving: from Autonomous Vehicles to Autonomous Traffic Flow. Frontiers in Future Transportation, 25.
[14] Grigorescu, S., Trasnea, B., Cocias, T., & Macesanu, G. (2020). A survey of deep learning techniques for autonomous driving. Journal of Field Robotics, 37(3), 362-386.
[15] Azizian, M., Khoshnam, M., Najmaei, N., & Menon, C. (2020). Artificial Intelligence in Surgical Robotics: A Systematic Review of the Literature. Journal of Robotics, 2020.
[16] Yan, W., Weber, C., & Wermter, S. (2011, November). A hybrid probabilistic neural model for person tracking based on a ceiling-mounted camera. In International Conference on Artificial Neural Networks (pp. 62-69). Springer, Berlin, Heidelberg.
[17] Conti, D., Trubia, G., Buono, S., Di Nuovo, S., & Di Nuovo, A. (2018, December). Social robots in postural education: a new approach to address body consciousness in ASD children. In International Conference on Social Robotics (pp. 290-299). Springer, Cham.
[18] Billard, A. G., Belpaeme, T., & Dautenhahn, K. (2018). Social cognition in humans and robots. Frontiers in Neurorobotics, 15.
[19] Choi, J., Yi, S., Law, M., Chung, J., Park, S., Lee, J., ... & Kwon, W. H. (2018). Development of an Unmanned Aircraft System (UAS) Based Smart Farming Solution for Field Monitoring. Journal of Biosystems Engineering, 43(3), 246-258.
[20] Duan, Y., Edwards, J. S., & Dwivedi, Y. K. (2019). Artificial intelligence for decision making in the era of Big Data–evolution, challenges and research agenda. International Journal of Information Management, 48, 63-71.
[21] Arel, I., Rose, D. C., & Karnowski, T. P. (2010). Deep machine learning-a new frontier
[22] Lee, E. A. (2008). Cyber physical systems: Design challenges. In 2008 11th IEEE international symposium on object and component-oriented real-time distributed computing (ISORC) (pp. 363-369). IEEE.
[23] Siciliano, B., & Khatib, O. (Eds.). (2016). Springer handbook of robotics. Springer.
[24] Thrun, S. (2004). Toward a framework for human-robot interaction. Human–Computer Interaction, 19(1-2), 9-24.
[25] Baheti, R., & Gill, H. (2011). Cyber-physical systems. The impact of control technology, 12(1), 161-166.
[26] Hagele, M., Nilsson, K., Pires, J. N., & Bischoff, R. (2016). Industrial robotics. In Springer handbook of robotics (pp. 1385-1422). Springer, Cham.
[27] Erol, B. A., Majumdar, A., Benavidez, P., Rad, P., Choo, K. K. R., & Jamshidi, M. (2019). Toward artificial emotional intelligence for cooperative social human–machine interaction. IEEE Transactions on Computational Social Systems, 7(1), 234-246.
[28] Wang, Y., & Zhang, Q. (2016). Trends in Control and Decision-Making for Human–Robot Collaboration Systems. Springer International Publishing.
[29] Kober, J., Bagnell, J. A., & Peters, J. (2013). Reinforcement learning in robotics: A survey. The International Journal of Robotics Research, 32(11), 1238-1274.
[30] Quigley, M., Conley, K., Gerkey, B., Faust, J., Foote, T., Leibs, J., ... & Ng, A. Y. (2009, May). ROS: an open-source Robot Operating System. In ICRA workshop on open source software (Vol. 3, No. 3.2, p. 5).
[31] Riek, L. D. (2017). Healthcare robotics. Communications of the ACM, 60(11), 68-78.
[32] Royakkers, L., & van Est, R. (2015). A literature review on new robotics: automation from love to war. International journal of social robotics, 7(5), 549-570.
[33] Guizzo, E., & Ackerman, E. (2012). The rise of the robot worker. IEEE spectrum, 49(10), 34-41.
[34] Fitzgerald, C. (2013). Developing baxter. In 2013 IEEE Conference on Technologies for Practical Robot Applications (TePRA) (pp. 1-6). IEEE.
[35] De Graaf, M. M., Allouch, S. B., & Klamer, T. (2015). Sharing a life with Harvey: Exploring the acceptance of and relationship-building with a social robot. Computers in human behavior, 43, 1-14.
[36] Scheutz, M., Schermerhorn, P., & Kramer, J. (2006). The utility of affect expression in natural language interactions in joint human-robot tasks. In Proceedings of the 1st ACM SIGCHI/SIGART conference on Human-robot interaction (pp. 226-233).
[37] Belpaeme, T., Kennedy, J., Ramachandran, A., Scassellati, B., & Tanaka, F. (2018). Social robots for education: A review. Science robotics, 3(21), eaat5954.
[38] Tussyadiah, I. P., & Park, S. (2018). Consumer evaluation of hotel service robots. In Information and communication technologies in tourism 2018 (pp. 308-320). Springer, Cham.
[39] Kehoe, B., Patil, S., Abbeel, P., & Goldberg, K. (2015). A survey of research on cloud robotics and automation. IEEE Transactions on automation science and engineering, 12(2), 398-409.
[40] Osoba, O. A., & Welser IV, W. (2017). The risks of artificial intelligence to security and the future of work. Rand Corporation.
[41] Saad, W., Bennis, M., & Chen, M. (2019). A vision of 6G wireless systems: Applications, trends, technologies, and open research problems. IEEE network, 34(3), 134-142.
[42] Ferrer, A. J., Marquès, J. M., & Jorba, J. (2019). Towards the decentralised cloud: Survey on approaches and challenges for mobile, ad hoc, and edge computing. ACM Computing Surveys (CSUR), 51(6), 1-36.
[43] Tang, A., Lu, K., Wang, Y., Huang, J., & Li, H. (2015, June). A real-time hand posture recognition system using deep neural networks. ACM Transactions on Intelligent Systems and Technology (TIST), 6(2), 1-23.
[44] Sun, L., Jia, K., Chan, T. H., Fang, Y., Wang, G., & Yan, S. (2014). DL-SFA: deeply-learned slow feature analysis for action recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 2625-2632).
[45] Shi, W., Cao, J., Zhang, Q., Li, Y., & Xu, L. (2016). Edge computing: Vision and challenges. IEEE internet of things journal, 3(5), 637-646.
[46] Pan, Y., Tian, Y., Liu, X., Gu, D., & Hua, G. (2016). Urban big data and the development of city intelligence. Engineering, 2(2), 171-178.
[47] Garattoni, L., & Birattari, M. (2018). Autonomous task sequencing in a robot swarm. Science Robotics, 3(20), eaat0430.
[48] Scholtz, J., Young, J., Drury, J. L., & Yanco, H. A. (2004). Evaluation of human-robot interaction awareness in search and rescue. In IEEE International Conference on Robotics and Automation, 2004. Proceedings. ICRA'04. 2004 (Vol. 3, pp. 2327-2332). IEEE.
[49] Moniz, A. B., & Krings, B. J. (2016). Robots working with humans or humans working with robots? Searching for social dimensions in new human-robot interaction in industry. Societies, 6(3), 23.
[50] Lee, J., Davari, H., Singh, J., & Pandhare, V. (2018). Industrial Artificial Intelligence for industry 4.0-based manufacturing systems. Manufacturing letters, 18, 20-23.
[51] Ben-Ari, M., & Mondada, F. (2018). Robots and their applications. In Elements of robotics (pp. 1-20). Springer, Cham.
[52] Chen, M., Herrera, F., & Hwang, K. (2018). Cognitive computing: architecture, technologies and intelligent applications. IEEE Access, 6, 19774-19783.
[53] Autonomous Robot Market by Mode of Operation, Mobility, Application (Medical & Logistics, Defense, Agriculture, Mining, Entertainment), End-User (Commercial, Industrial, Residential), and Region - Global Forecast to 2026. (2021). Markets and Markets. Available at: https://www.marketsandmarkets.com/Market-Reports/autonomous-robot-market-246498558.html (Accessed: 8 June 2023)
[54] Manyika, J., Chui, M., Miremadi, M., Bughin, J., George, K., Willmott, P., & Dewhurst, M. (2017). A future that works: Automation, employment, and productivity. McKinsey Global Institute.
[55] Bossmann, J. (2016). Top 9 ethical issues in artificial intelligence. In World Economic Forum (Vol. 21, pp. 1-6).
[56] Pavaloiu, A., & Kose, U. (2017). Ethical artificial intelligence-an open question. arXiv preprint arXiv:1706.03021.
[57] Siau, K., & Wang, W. (2018). Building trust in artificial intelligence, machine learning, and robotics. Cutter business technology journal, 31(2), 47-53.
[58] Deng, L. (2018). Artificial intelligence in the rising wave of deep learning: The historical path and future outlook. IEEE Signal Processing Magazine, 35(1), 177-180.
[59] Ford, M. (2015). Rise of the Robots: Technology and the Threat of a Jobless Future. Basic Books.
[60] Russell, S., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
[61] Zhang, Q., Yang, L. T., Chen, Z., & Li, P. (2018). A survey on deep learning for big data. Information Fusion, 42, 146-157.
[62] Dodig-Crnkovic, G. (2017). Social robots and social cognition. In Enculturating Cognition (pp. 119-149). Springer, Cham.
[63] James, S., Freese, M., & Davison, A. J. (2020). Pyrep: Bringing v-rep to deep robot learning. arXiv preprint arXiv:2005.02214.
#EmbodiedAI,#CPS, #Robot, #보스톤로보틱스, #bostonrobotics, #네이버, #Naver,