Gartner가 2022년 말 4,861명의 직장인을 대상으로 진행한 조사에서 나온 숫자가 있습니다. 디지털 근무자의 47%가 업무에 필요한 정보를 찾는 데 어려움을 겪는다는 것입니다. 같은 조사에서 직장인이 업무에 사용하는 앱 수는 2019년 평균 6개에서 2022년 11개로 두 배 가까이 늘었습니다.
업무 생산성과 활용성을 높인다는 명목으로 다양한 툴을 도입한 결과, 정작 정보는 더 찾기 어려워졌습니다. Slack에 올린 파일, Drive에 저장한 문서, Confluence에 정리한 정책, Jira에 기록된 이슈들, 각각은 잘 정리되어 있지만 나중에 찾을때는 어디에 무엇이 있는지를 기억하는 건 아직 사람이 직접하고 있습니다.
이 구조적 비효율을 정면으로 겨냥한 오픈소스 도구가 최근 개발자 커뮤니티에서 주목을 받았는데 오늘 이야기할 Omni입니다.
Omni에서 가능한 것들
Omni는 Google Drive, Gmail, Slack, Confluence, Jira, Notion, HubSpot, GitHub, Fireflies, 로컬 파일까지 기업이 운영하는 협업 도구들을 단일 인터페이스로 연결해 통합 검색하고 AI와 대화하듯 활용할 수 있게 해주는 오픈소스 AI 검색 플랫폼입니다. Apache 2.0 라이선스로 공개되어 있어 소스코드를 직접 확인하고 자체 서버에 배포할 수 있습니다.
주목받는 이유는 기능만이 아닙니다. 이런 도구가 오픈소스로 나왔고, 개발자들이 관심을 보인다는 사실은 이 수요가 특정 기업만의 문제가 아니라는 건데요. 흩어진 사내 데이터를 AI로 연결하고 싶다는 욕구는 이미 시장 전반에 있었습니다.
작동 및 운영 방식
기업용 검색 시스템을 구축할 때 통상적인 방식은 이렇습니다. 데이터 저장용 주 데이터베이스, 검색 전용 엔진인 Elasticsearch, 시스템 간 데이터를 실시간으로 전달하는 메시지 브로커 Kafka를 각각 따로 운영합니다. 세 시스템이 항상 동기화되어야 하고, 하나라도 장애가 나면 전체가 흔들립니다. 이걸 운영해본 엔지니어링팀은 유지보수 비용이 만만치 않다는 걸 압니다.
Omni는 이 구조를 ParadeDB : PostgreSQL 기반의 단일 데이터베이스로 압축했습니다. 전문 검색, 벡터 검색, 애플리케이션 데이터 관리를 하나에서 처리합니다. 운영팀 입장에서는 백업, 모니터링, 튜닝을 한 곳에서 관리할 수 있다는 의미입니다.
검색은 두 가지 방식을 동시에 씁니다. BM25 기반의 키워드 검색과 pgvector 기반의 의미 검색입니다. 예를 들어 "환불 정책"이라는 단어가 없어도, "고객이 제품 반품을 원할 때 처리 절차"처럼 의미가 같은 문서를 찾아냅니다. 단어가 아닌 맥락을 이해해서 검색한다는 뜻입니다.
보안 설계도 실용적입니다. Self-hosted 구조로 데이터가 외부로 전송되지 않으며, Permission Inheritance 기능으로 원본 시스템의 접근 권한이 자동 반영됩니다. Google Drive에서 볼 수 없는 문서는 Omni에서도 볼 수 없습니다. 별도 권한 설정 없이, 기존 시스템의 접근 제어가 그대로 적용됩니다.
AI 에이전트 기능도 있습니다. 문서를 읽고 요약하며, 격리된 Docker 샌드박스 안에서 Python이나 bash 코드를 실행해 간단한 데이터 분석도 가능합니다. 이 샌드박스는 내부 네트워크와 외부 인터넷 모두에 접근이 차단된 환경에서 작동하며, Landlock 파일시스템 제한과 읽기 전용 루트 파일시스템으로 보안을 강화했습니다. 사용할 LLM은 Anthropic, OpenAI, Gemini, 또는 vLLM을 통한 오픈소스 모델 중에서 선택할 수 있습니다.
검색이 해결되면, 그다음은 무엇인가
Omni가 완벽하게 작동한다고 가정한다면 Slack, Jira, Drive, Confluence가 모두 연결되고 원하는 정보가 1초 안에 나오게 됩니다.
그 다음 단계를 생각해보면,
매일 들어오는 고객 문의 이메일은 여전히 누군가 분류해야 합니다. 또 매주 반복되는 영업 리포트는 여전히 누군가 작성해야 합니다. 신규 계약이 체결될 때마다 Jira에 프로젝트를 생성하고, 노션에 문서를 만들고, 담당자에게 슬랙 메시지를 보내는 작업은 여전히 사람이 처리해야 합니다.
검색 효율화로는 업무의 파편화를 해소할 수 없습니다. 반복 업무를 없애지도 못합니다. 이 두 가지는 구분해야 하죠.
찾아주는 AI
흩어진 데이터를 연결해 검색해주는 도구입니다. Omni가 여기 속합니다. 정보 접근의 비효율을 해소하는 것이 목적입니다.
실행하는 AI
조건이 충족되면 AI가 스스로 판단해 작업을 순서대로 처리합니다. 사람이 개입하지 않아도 프로세스가 완결됩니다. 반복 업무 자체를 없애는 것이 목적입니다.
Omni가 풀려는 문제는 첫 번째입니다. 그런데 실제로 AI 도입을 추진하는 조직들이 부딪히는 병목은 대부분 두 번째에 있습니다.
다음은 AI 자동화,
이를 위해 알아야 할 세 가지 개념
AI 에이전트란?
AI 에이전트는 질문에 답하는 AI가 아닙니다. 목표를 주면 스스로 필요한 도구를 선택하고, 단계를 밟아 결과를 만들어내는 AI입니다. "이 이메일 요약해줘"는 챗봇이 하는 일입니다. "오늘 들어온 영업 문의를 읽고, 제품 카테고리별로 분류한 다음, 긴급 건은 슬랙 #영업팀에 즉시 알리고, 일반 건은 CRM에 등록해줘"를 완결하는 것이 에이전트의 영역입니다.
RAG란?
RAG(Retrieval-Augmented Generation)는 AI가 답변할 때 관련 문서를 실시간으로 검색해 그 내용을 근거로 활용하는 방식입니다. 일반 LLM은 학습 데이터 안에서만 답합니다. 사내 정책, 최신 계약서, 제품 스펙처럼 모델이 학습하지 않은 내용은 답하지 못합니다. RAG는 이 문제를 해결합니다. "우리 서비스 환불 기준이 어떻게 되나요?"라는 질문이 들어오면 AI가 먼저 사내 문서를 검색하고, 그 내용을 바탕으로 답변을 생성합니다. 추측이 아닌, 실제 문서 기반의 답변입니다.
워크플로우 자동화란?
여러 도구와 AI 모델이 연결되어, 특정 조건이 충족되면 일련의 작업이 자동으로 실행되는 구조입니다. "신규 고객이 폼을 제출하면 → CRM 자동 등록 → 환영 이메일 초안 생성 및 발송 → 영업팀 슬랙 알림"이 사람 없이 완결되는 것입니다. 이 세 개의 화살표 사이에 사람이 없다는 게 핵심입니다.
Dify — "실행하는 AI"를 만드는 플랫폼
AI 에이전트, RAG 파이프라인, 워크플로우 자동화를 코딩 없이 시각적으로 구성하고 운영 환경에 배포하는 플랫폼이 Dify입니다.
2023년 출시 이후 GitHub 스타 10만 개 이상을 기록한 오픈소스 프로젝트로, 2025년 3월에는 Series Pre-A로 3,000만 달러를 유치하며 기업가치 1억 8,000만 달러를 인정받았습니다. 단순한 스타트업 도구가 아닙니다. 세계 최대 해운사 Maersk를 포함해 ETS, Anker Innovations, Novartis가 실제 운영 환경에 도입했으며, Maersk의 AI 솔루션 엔지니어링 디렉터 Mark Sear는 "Dify를 통해 프로토타입 단계를 넘어 실제 비즈니스 프로세스를 유지 가능한 시스템으로 전환할 수 있었다"고 밝혔습니다.
실제 유즈 케이스 (USE CASE)
문서 검토 파이프라인: 계약서, 제안서, 법무 문서가 들어오면 Dify가 문서를 읽고 핵심 조항을 요약한 뒤, 검토가 필요한 항목을 플래그 처리해 담당자에게 넘깁니다. 처음부터 끝까지 읽던 시간을 핵심 검토로만 쓸 수 있습니다.
사내 지식 기반 코파일럿: 취업규칙, 제품 매뉴얼, 사내 정책 문서를 지식 베이스에 등록하면 "연차 신청 기한이 어떻게 되나요?", "이 제품 반품 처리 절차가 뭐죠?" 같은 질문에 문서 기반으로 정확히 답합니다. HR과 CS 팀이 매일 받는 단순 반복 문의를 줄일 수 있습니다.
운영 워크플로우 자동화: 인보이스 감사, 신규 계약 온보딩, 주간 실적 리포트 자동 생성처럼 규칙 기반으로 반복되는 작업을 Dify 워크플로우로 처리할 수 있습니다. Maersk가 실제로 이 방식을 운영에 적용하고 있습니다.
이 모든 것이 드래그 앤 드롭 방식의 비주얼 빌더로 구성됩니다. 개발자가 아니어도 시작할 수 있고, 개발자라면 Python·Node.js 코드 노드로 더 정밀하게 제어할 수 있습니다. 완성된 AI 앱은 API, 챗봇 위젯, 내부 운영 도구 등 다양한 형태로 배포 가능합니다. 배포 후에는 토큰 비용, 응답 품질, 에러율을 실시간으로 모니터링하는 LLMOps 도구가 내장되어 있습니다.
지원하는 LLM은 Claude, GPT-4o, Gemini부터 Llama, Qwen, Mistral까지 수백 개입니다. 모델 전환이 자유롭기 때문에 성능과 비용 사이에서 실용적인 선택이 가능합니다.
Omni가 주목받는 이유는 명확합니다. 사내 정보가 너무 많은 곳에 흩어져 있고, 사람들은 그걸 찾는 데 시간을 낭비하고 있습니다. Omni는 그 문제에 집중한 도구입니다.
그런데 AI 도입을 고민하는 조직들이 결국 부딪히는 질문은 조금 다릅니다. "더 빠르게 찾는 것"이 목표인지, 아니면 "찾고 처리하는 과정 자체를 없애는 것"이 목표인지입니다.
Gartner 조사에서 정보를 찾지 못해 잘못된 결정을 내렸다고 답한 직장인이 32%였습니다. 검색이 해결되면 이 숫자는 줄어들 수 있습니다. 하지만 그 정보를 찾아 처리하고, 다음 사람에게 전달하고, 기록을 남기는 과정이 자동화되지 않으면 생산성의 한계는 여전히 사람의 수에 비례합니다.
FAQ
Dify는 개발자만 쓸 수 있나요? 아닙니다. 비주얼 워크플로우 빌더는 코딩 없이 드래그 앤 드롭으로 AI 자동화를 구성하도록 설계되어 있습니다. 개발자라면 Python·Node.js 코드 노드로 더 세밀하게 제어할 수 있습니다.
데이터 보안이 걱정되는 환경에서도 쓸 수 있나요? Dify는 클라우드 버전과 Self-hosted 버전을 모두 지원합니다. 자체 서버에 배포하면 데이터가 내부 인프라 밖으로 나가지 않습니다.
AI 에이전트와 AI 챗봇은 어떻게 다른가요? 챗봇은 질문에 답합니다. 에이전트는 목표를 받고 필요한 도구를 선택해 작업을 완결합니다. 이메일 작성, 데이터 조회, 슬랙 알림 전송처럼 여러 단계로 구성된 업무를 자율적으로 처리하는 것이 에이전트입니다.
Dify는 어떤 LLM을 지원하나요? Claude(Anthropic), GPT-4o(OpenAI), Gemini(Google)를 포함해 Llama, Qwen, Mistral 등 수백 개 모델을 지원합니다. 모델 전환이 자유로워 성능과 비용을 상황에 맞게 조정할 수 있습니다.
오픈네트웍시스템 ㅣ 권태규