brunch

경계 안의 경계 안의 경계

백엔드와 엣지 컴퓨팅

by 김영빈

오늘날, 백엔드는 점점 데이터베이스 친화적으로 변화하고 있다. 이는 데이터 관리와 처리의 효율성을 높이는 방향으로 나아가는 기술적 진화의 결과다. 반면, 프론트엔드는 단순히 화면을 출력하는 도구에서 벗어나 점점 더 복잡하고 강력한 '애플리케이션'의 형태로 변화하고 있다. 이러한 변화는 기술의 발전과 시장의 요구에 의해 촉진되었으며, 오늘날의 웹 서비스는 과거와 비교할 수 없을 만큼 복잡하고 정교한 아키텍처를 필요로 한다.


역사적으로, 프론트엔드는 비교적 단순한 역할을 수행했다. 브라우저는 서버가 생성한 HTML과 데이터를 받아 화면에 출력하는 역할에 머물렀다. 이 시기의 백엔드는 모든 로직과 데이터 관리를 도맡았다. 당시에는 서버 사이드 렌더링(SSR)이 주류였다. 사용자가 페이지를 요청하면 서버는 필요한 데이터를 수집하고, HTML 페이지를 완전히 렌더링 한 뒤 클라이언트에 제공했다. 서버는 데이터를 저장하고 관리하는 동시에 애플리케이션 로직을 처리하며, 최종적으로 렌더링 작업까지 수행해야 했다. 이러한 백엔드 중심의 구조는 당시 웹 기술의 한계를 고려할 때 자연스러운 선택이었다.

그러나 기술의 발전은 이러한 구조를 뒤흔들었다. 브라우저에서 자바스크립트의 실행 성능을 획기적으로 개선한 v8 엔진은 클라이언트에서 복잡한 로직을 처리할 수 있는 가능성을 열어주었다. 또한, Ajax 기술은 비동기 요청을 통해 실시간으로 데이터를 교환할 수 있게 하며, 서버와 클라이언트 간의 상호작용을 크게 개선했다. 이러한 기술적 진보는 SPA(Single Page Application)의 개념을 실현시켰다. SPA는 브라우저가 단순한 화면 출력기를 넘어 주요 로직을 처리하는 역할을 맡게 했고, 이로 인해 프론트엔드는 점점 더 복잡한 애플리케이션의 형태로 변화했다.


웹 서비스가 점점 더 복잡해지고, 사용자 수와 트래픽이 폭발적으로 증가하면서 백엔드는 새로운 도전에 직면했다. SPA의 부상으로 인해 서버가 담당했던 렌더링 작업과 일부 데이터 처리는 브라우저로 이전되었고, 백엔드는 데이터 관리에 더욱 집중해야 하는 상황이 되었다. 이제 백엔드는 대규모 데이터를 관리하고 통합하는 데이터 허브의 역할을 수행하게 되었다. 이를 위해 다중 서버, 마이크로서비스 아키텍처, 클라우드 기반 오케스트레이션, 스테이트리스 코딩, 함수형 프로그래밍 같은 기술들이 점차 주목받고 있다. 이러한 기술들은 대규모 데이터를 효율적으로 처리하고 시스템의 확장성을 유지하기 위한 필수적인 요소로 자리 잡고 있다.

우리는 이제 초-대규모 데이터 시대에 접어들고 있다. 기존의 백엔드 아키텍처로는 이러한 데이터를 효과적으로 처리하기 어려울 정도의 데이터를 맞이하게 될 것이다. 이에, 데이터의 양과 복잡성이 급격히 증가하면서, 서버 간에도 프론트엔드와 백엔드로의 역할 분화가 필요하게 된다. 프론트엔드의 전방서버(엣지 서버)와 백엔드의 중앙 서버로의 분화는, 엣지 컴퓨팅이라는 새로운 아키텍처 패턴으로 나타난다. 엣지 서버는 사용자의 가까운 위치에서 데이터를 처리하고, 이를 요약하거나 정제된 형태로 중앙 서버에 전달한다. 중앙 서버는 이 데이터를 종합하고, 필요할 경우 보정 작업을 수행한다. 이미 엣지 컴퓨팅은 우리의 일상에 녹아있다. CDN(Content Delivery Network)은 콘텐츠를 전 세계의 엣지 서버로 전달해서 요청을 분산하고 레이턴시를 줄이고 있다.


이 과정에서 새로운 공학적 역량이 요구된다. 엣지 서버에서 처리된 데이터는 네트워크의 지연, 계산의 한계 등으로 인해 오차를 포함할 가능성이 있다. 이러한 오차를 관리하고 보정하는 능력은 앞으로 백엔드 엔지니어링에서 중요한 과제가 될 것이다. 또한, 데이터를 다루는 방식도 기존의 트랜잭션 중심에서 확률 기반으로 전환될 가능성이 크다. 이는 데이터를 고전역학의 원자적인 단일 상태로 보는 대신, '가능 영역'으로 이해하는 양자역학적 접근으로 이어질 수 있다. 확률적 컴퓨팅은 데이터를 처리하고 의사결정을 내리는 데 있어 더욱 유연하고 정교한 모델을 제공할 것이다.

특히 AI 시대에, 엣지 컴퓨팅은 더욱 중요한 역할을 할 것이다. 자율주행 차량, 스마트 팩토리, IoT 기반 스마트 시티 등에서, 상상할 수 없을 만큼의 데이터를 처리해야 하는 AI 모델 개발은 큰 도전 과제다. 단일 중앙 서버로 이러한 데이터를 모두 전송하는 것은 높은 비용과 비효율성을 초래한다. 엣지 컴퓨팅은 원시 데이터를 로컬에서 미리 처리하여 AI 모델 개발에 필요한 데이터를 요약하고 정리한다. 이를 통해 전송 데이터를 줄이고 중앙 서버의 부하를 분산시킬 수 있다. 중앙 서버는 요약된 데이터를 활용해 AI 모델을 학습하고, 개선된 모델을 다시 엣지 서버로 배포해 새로운 데이터를 수집하고 처리한다.

바로 이러한 과정에서 오차를 관리하고 보정하는 기술적 능력은 AI 모델의 품질과 완성도를 결정짓는 핵심 요소가 된다. 예를 들어, 분산 시스템의 체크포인트 기법이나 데이터의 신뢰도 평가를 통해, 엣지와 중앙 서버 간 데이터 흐름을 정교하게 설계할 수 있다. 이러한 협력은 AI 모델 개발뿐만 아니라, 대규모 데이터 처리의 새로운 패러다임을 열어갈 것이다. 엣지 컴퓨팅과 AI의 결합은 단순히 비용을 줄이는 것이 아니라, 데이터 처리의 유연성과 확장성을 극대화하며, 궁극적으로 AI 중심의 기술 발전을 가속화할 것이다. 이처럼 엣지와 중앙 서버의 조화로운 협력은 미래 데이터 아키텍처의 핵심이 될 것이다.


백엔드와 프론트엔드의 경계는 기술의 발전과 시장의 요구에 따라 끊임없이 변화하고 있다. 시장이 확장됨에 따라 역할은 더욱 세분화되고 명확해지며, 이는 기술 아키텍처의 진화 과정에서 자연스러운 흐름이라 할 수 있다. 과거에는 백엔드가 서비스, 데이터, 렌더링까지 모든 역할을 담당했지만, 오늘날에는 데이터 관리에 더욱 집중하는 구조로 변화하고 있다.

미래의 초-대규모 데이터 시대에는 원시 데이터와 가공 데이터를 분리 처리하는 새로운 역할 분리가 이루어질 것이며, 이 과정에서 데이터 보정 기술은 핵심적인 요소로 자리 잡을 것이다. 이는 마치 해안선 안에 또 다른 해안선이 나타나는 프랙탈 구조처럼, 기술이 진화할수록 경계가 점점 더 세분화되고 확대되는 모습을 보여준다.

따라서 우리는 이러한 역사적 원리를 바탕으로 시장의 변화와 기술의 흐름을 인식하고, 다가오는 경계의 재정의를 준비해야 한다. 기술과 역할의 경계가 그려지기 전에 이를 예측하고 대비하는 태도는, 앞으로의 불확실한 시대를 헤쳐 나가는 데 있어 중요한 길잡이가 될 것이다.

keyword
작가의 이전글동시성? 뭣이 중헌디!