📚FOS Study
홈카테고리
홈카테고리

카테고리

  • AI 페이지로 이동
    • RAG 페이지로 이동
    • agents 페이지로 이동
    • BMAD Method — AI 에이전트로 애자일 개발하는 방법론
    • Claude Code의 Skill 시스템 - 개발자를 위한 AI 자동화의 새로운 차원
    • Claude Code 멀티 에이전트 — Teams
    • 멀티모달 LLM (Multimodal Large Language Model)
  • architecture 페이지로 이동
    • 캐시 설계 전략 총정리
    • 디자인 패턴
    • 분산 트랜잭션
  • css 페이지로 이동
    • FlexBox 페이지로 이동
  • database 페이지로 이동
    • mysql 페이지로 이동
    • opensearch 페이지로 이동
    • redis 페이지로 이동
    • 김영한의-실전-데이터베이스-설계 페이지로 이동
    • 커넥션 풀 크기는 얼마나 조정해야할까?
    • 인덱스 - DB 성능 최적화의 핵심
    • 역정규화 (Denormalization)
    • 데이터 베이스 정규화
  • devops 페이지로 이동
    • docker 페이지로 이동
    • k8s 페이지로 이동
    • k8s-in-action 페이지로 이동
    • monitoring 페이지로 이동
  • go 페이지로 이동
    • Go 언어 기본 학습
  • http 페이지로 이동
    • HTTP Connection Pool
  • interview 페이지로 이동
    • 210812 페이지로 이동
    • 뱅크샐러드 AI Native Server Engineer
    • CJ 올리브영 지원 문항
    • CJ 올리브영 커머스플랫폼유닛 Back-End 개발 지원 자료
    • 마이리얼트립 - Platform Solutions실 회원주문개발 Product Engineer
    • NHN 서비스개발센터 AI서비스개발팀
    • nhn gameenvil console backend 직무 인터뷰 준비
    • 면접을 대비해봅시다
    • Tossplace Node.js Developer
    • 토스플레이스 Node.js 백엔드 컬처핏
  • java 페이지로 이동
    • jdbc 페이지로 이동
    • opentelemetry 페이지로 이동
    • spring 페이지로 이동
    • spring-batch 페이지로 이동
    • 더_자바_코드를_조작하는_다양한_방법 페이지로 이동
    • Java의 로깅 환경
    • MDC (Mapped Diagnostic Context)
    • OpenTelemetry 란 무엇인가?
    • Java StampedLock — 읽기 폭주에도 쓰기가 밀리지 않는 락
    • Virtual Thread와 Project Loom
  • javascript 페이지로 이동
    • Data_Structures_and_Algorithms 페이지로 이동
    • Heap 페이지로 이동
    • typescript 페이지로 이동
    • AbortController
    • Async Iterator와 제너레이터
    • CommonJS와 ECMAScript Modules
    • 제너레이터(Generator)
    • Http Client
    • Node.js
    • npm vs pnpm 선택기준은 무엇인가요?
    • `setImmediate()`
  • kafka 페이지로 이동
    • Kafka 기본
    • Kafka를 사용하여 **데이터 정합성**은 어떻게 유지해야 할까?
    • 메시지 전송 신뢰성
  • linux 페이지로 이동
    • fsync — 리눅스 파일 동기화 시스템 콜
    • tmux — Terminal Multiplexer
  • network 페이지로 이동
    • L2(스위치)와 L3(라우터)의 역할 차이
    • L4와 VIP(Virtual IP Address)
    • IP Subnet
  • react 페이지로 이동
    • JSX 페이지로 이동
    • VirtualDOM 페이지로 이동
    • v16 페이지로 이동
  • task 페이지로 이동
    • ai-service-team 페이지로 이동
    • nsc-slot 페이지로 이동
    • the-future-company 페이지로 이동
📚FOS Study

개발 학습 기록을 정리하는 블로그입니다.

바로가기

  • 홈
  • 카테고리

소셜

  • GitHub
  • Source Repository

© 2025 FOS Study. Built with Next.js & Tailwind CSS

목록으로 돌아가기
🤖AI/ RAG

kNN (k-Nearest Neighbors) 알고리즘

약 2분
2026년 1월 30일
GitHub에서 보기

kNN (k-Nearest Neighbors) 알고리즘

  • knn = 어떤 벡터(쿼리)와 가장 가까운 k개의 이웃 벡터를 찾는 알고리즘
  • 예를 들어
    • 문서 임베딩이 1536차원 벡터로 저장되어 있고
    • 사용자가 질문했을 때 질문도 벡터로 변환되면

      "질문 벡터와 가장 가까운 문서 벡터 k개를 찾아라" 라고 하는 과정

벡터간 "가까움"은 어떻게 계산하는가?

  • 1. Cosine Similarity (RAG에서 거의 표준)

    • 각도 기반 유사도
    • 두 벡터의 방향이 얼마나 비슷한가
    • 텍스트 임베딩에는 가장 잘 맞아서 일반적으로 이걸 사용
  • 2. Euclidean Distance (L2 거리)

    • 물리적으로 벡터 좌표 간 거리
  • 3. Dot Product

    • 값의 크기 + 방향을 모두 고려
    • OpenAI 등 최신 모델은 dot product 기반으로 search하면 더 성능 잘 나오는 경우도 있음

kNN의 단점 : 느리다 (Brute-force)

  • 벡터 하나와 모든 벡터 사이의 거리를 계산해야 한다면
    • 쿼리 벡터 1개
    • 문서 벡터 N개 (예: 1천만 개)
    • 계산량 = 1천만 번 거리 계산
  • 이걸 "Brute force kNN" 이라고 해
    • 차원이 높고 데이터가 많으면 절대 실시간 서비스가 불가능함
    • 그래서 벡터 검색 기술이 필요함

그래서 등장한 것이 ANN (Approximate Nearest Neighbor)

ANN은 정확한 이웃을 찾는 대신

  • 정확도 98 ~ 99% 수준
  • 속도는 수백 ~ 수천 배 빠름

이라는 목표를 가진 알고리즘

대표 ANN 알고리즘이 바로 HNSW, Faiss, ScaNN, IVF+PQ등이 있다 OpenSearch는 HNSW를 핵심으로 사용

HNSW가 kNN을 빠르게 하는 방법

kNN은 본래 모든 점을 비교해야 하지만, HNSW는 그래프를 이용해 "빠르게 후보를 좁히는 구조"를 사용한다

핵심 아이디어

  1. 임베딩 벡터들을 층(layer) 구조의 그래프로 만든다
  2. 상위 층에서 빠르게 주위 후보를 찾는다 (rough search)
  3. 하위 층으로 내려가며 점점 정밀하게 kNN을 찾는다

이 구조 덕분에

  • 데이터 수가 늘어도 속도 저하가 적고
  • 검색 속도는 O(log N)에 가까워짐

즉, "kNN을 실시간에 사용할 수 있도록 만든 알고리즘이 HNSW" 라고 이해하면 좋음

OpenSearch에서 kNN 알고리즘은 어떻게 동작할까?

  • OpenSearch에서 vector 인덱스를 생성하면 이렇게 설정함
{
  "method": {
    "name": "hnsw",
    "engine": "faiss",
    "space_type": "cosinesimil"
  }
}
  • name: hnsw -> ANN 기반 그래프 사용
  • engine: faiss -> Facebook FAISS 사용 (가장 빠른 엔진 중 하나)
  • space_type: cosinesimil -> 코사인 유사도로 계산

즉, OpenSearch는 내부적으로 kNN을 ANN 방식으로 최적화한 그래프 탐색을 한다

AI 카테고리의 다른 글 보기수정 제안하기

댓글

댓글을 불러오는 중...
목차
  • kNN (k-Nearest Neighbors) 알고리즘
  • 벡터간 "가까움"은 어떻게 계산하는가?
  • kNN의 단점 : 느리다 (Brute-force)
  • 그래서 등장한 것이 ANN (Approximate Nearest Neighbor)
  • HNSW가 kNN을 빠르게 하는 방법
  • OpenSearch에서 kNN 알고리즘은 어떻게 동작할까?