용어집
용어집
AI 용어, 간결하게 정의.
38 용어
#
- 검색 증강 생성 (RAG) 검색 시스템과 언어 모델을 결합한 아키텍처 패턴입니다. 모델이 답변하기 전에 외부 지식 소스에서 관련 문서를 검색하여 실제 데이터에 기반한 정확한 출력을 생성합니다.
- 다중 에이전트 시스템 (multi-agent system) 여러 전문화된 에이전트가 협력, 위임, 또는 경쟁하면서 단일 모놀리식 모델보다 더 신뢰성 있게 작업을 해결하는 AI 아키텍처로, 복잡한 자동화에 활용됩니다.
- 대규모 언어 모델 (LLM) 방대한 텍스트 데이터로 학습된 신경망으로, 인간의 언어를 예측하고 생성합니다. ChatGPT, Claude, Gemini 등 현대 AI 어시스턴트의 핵심 기반 기술입니다.
- 딥러닝 (deep learning) 다층 신경망을 사용해 복잡한 패턴을 학습하는 머신러닝의 한 분야로, 현대의 비전, 음성 인식, 언어 AI 시스템 전반을 구동하는 핵심 기술입니다.
- 레드팀 (red team) 프롬프트 인젝션, 탈옥, 오용 같은 공격 기법으로 AI 시스템을 구조적으로 테스트하여 프로덕션 투입 전에 취약점과 위험한 행동을 발견하는 실천입니다.
- 모델 컨텍스트 프로토콜 (MCP) Anthropic이 2024년에 발표한 오픈 프로토콜로, AI 어시스턴트와 외부 도구 및 데이터 소스의 연결 방식을 표준화합니다. USB-C가 물리적 연결을 통일한 것처럼 AI 연동을 표준화합니다.
- 벡터 데이터베이스 (vector database) 벡터 임베딩을 저장하고 의미적 유사도에 기반하여 검색하는 전용 데이터베이스로, 현대의 RAG 시스템과 의미 검색 애플리케이션의 핵심 토대입니다.
- 생성형 사전학습 트랜스포머 (GPT) 디코더 전용 트랜스포머 언어 모델 계열로, 거대한 텍스트로 사전학습되고 지시용으로 파인튜닝됩니다. ChatGPT와 같은 시스템을 구동하는 아키텍처입니다.
- 신경망 (neural network) 층 구조의 인공 뉴런들로 구성되어 데이터로부터 패턴을 학습하는 계산 시스템으로, LLM을 포함한 거의 모든 현대 머신러닝 시스템의 핵심 토대입니다.
- 어텐션 메커니즘 (attention) 신경망 기법으로, 모델이 각 입력 토큰의 중요도를 다른 토큰들과의 관계 속에서 가중치로 평가할 수 있게 하며, 현대 트랜스포머의 핵심 메커니즘입니다.
- 인간 피드백 기반 강화학습 (RLHF) 인간 평가자가 모델 응답에 순위를 매기고, 그 순위로 LLM을 유용하고 안전하게 파인튜닝하는 학습 기법으로 ChatGPT를 실용화한 핵심 기술입니다.
- 임베딩 (embedding, 벡터 표현) 단어, 문장, 문서를 고차원 공간 내 벡터로 표현한 것으로, 의미적으로 유사한 항목은 서로 가까운 벡터를 가지며 RAG와 의미 검색의 토대입니다.
- 자기지도 학습 (self-supervised learning) 레이블 없는 데이터에서 모델이 스스로 학습 목표를 만들어 학습하는 방법으로, 문장 내 가려진 토큰을 예측하는 방식이 대표적이며 LLM 사전학습의 토대입니다.
- 전문가 혼합 (MoE) 각 입력에 대해 파라미터의 일부만 활성화하는 신경망 아키텍처입니다. 훨씬 큰 모델에 상응하는 성능을 추론 비용의 극히 일부만으로 제공하여 효율적인 대규모 확장을 가능하게 합니다.
- 지식 증류 (knowledge distillation) 큰 교사 모델의 출력을 작은 학생 모델이 모방하도록 학습시키는 압축 기법으로, 정확도를 유지하면서 크기를 줄여 온디바이스 실행을 가능하게 합니다.
- 챗봇 (chatbot) 텍스트나 음성을 통해 사용자와 대화를 수행하는 소프트웨어 에이전트로, 현대의 챗봇은 대규모 언어 모델(LLM)과 외부 도구의 호출에 의해 구동됩니다.
- 추론 (inference, 모델 실행) 이미 학습된 모델이 새로운 입력에 대해 출력을 생성하는 단계로, GPU/TPU 자원을 소모하며 AI 서비스의 비용, 지연 시간, 처리량을 결정합니다.
- 추론 모델 (Reasoning Model) 최종 답변을 출력하기 전에 길고 심층적인 사고의 연쇄를 생성하도록 학습된 LLM입니다. 추론 시간(테스트 시 계산)을 늘려 수학·코드 등 복잡한 문제에서의 정확도를 높입니다.
- 컨텍스트 윈도우 (context window) LLM이 한 번에 고려할 수 있는 토큰의 최대 수로, 프롬프트, 문서, 응답 모두를 포함하며 현재는 8K부터 200만 토큰까지 다양한 범위에 걸쳐 있습니다.
- 토큰화 (tokenization) 텍스트를 단어, 서브워드, 문자 등의 작은 단위(토큰)로 분해하여 언어 모델이 처리하고 숫자 ID로 변환할 수 있도록 만드는 전처리 단계입니다.
- 트랜스포머 2017년에 발표된 신경망 아키텍처로, 현대의 거의 모든 대규모 언어 모델을 구동합니다. Self-Attention 메커니즘을 핵심 구조로 사용합니다.
- 파운데이션 모델 (foundation model) 광범위한 데이터로 학습되어 다양한 작업에 적응되는 대규모 모델로, Stanford CRFM의 용어이며 LLM, 비전 모델, 멀티모달 모델을 포괄합니다.
- 파인튜닝 (Fine-tuning) 사전 학습된 언어 모델을 더 작은 태스크 특화 데이터셋으로 추가 학습하여 특정 작업, 도메인, 스타일에 맞게 동작을 전문화하는 과정입니다. 범용 언어 능력을 유지하면서 가중치를 조정합니다.
- 프롬프트 엔지니어링 (prompt engineering) 언어 모델이 원하는 결과를 안정적으로 내도록 질의를 설계하는 실천으로, 표현, 구조, 예시(few-shot), 시스템 프롬프트 등을 다루는 광범위한 분야입니다.
- 프롬프트 인젝션 (Prompt Injection) LLM 입력에 포함된 신뢰할 수 없는 텍스트가 모델로 하여금 개발자의 지시 대신 공격자의 지시를 따르게 만드는 공격 기법입니다. OWASP LLM 애플리케이션 Top 10에서 1위를 차지합니다.
- 확산 모델 (diffusion model) 단계적으로 추가된 노이즈를 되돌리는 법을 학습하는 생성 모델 클래스로, 오늘날 AI 생성 이미지, 영상, 오디오의 업계 지배적인 접근 방식입니다.
- 환각 (Hallucination) 언어 모델이 그럴듯하고 자신감 있게 들리지만 실제로는 사실과 다르거나 지어낸, 혹은 근거 없는 정보를 생성하는 현상입니다. AI 신뢰성을 저해하는 핵심 과제 중 하나입니다.
A
- AI 가속기 (NPU/TPU) AI 워크로드 전용 칩으로, 모바일의 NPU, Google의 TPU, AWS Trainium 등이 대표적이며 종종 달러당 GPU보다 빠르고 효율적입니다.
- AI 안전 (AI safety) AI 시스템의 기술적, 조직적, 정책적 위험을 다루는 광범위한 분야로, 오작동과 오용에서 장기적인 실존적 우려까지 포괄하며 규제와 평가의 중심에 있습니다.
- AI 에이전트 대규모 언어 모델을 기반으로 계획 수립, 도구 호출, 출력 반복을 통해 목표를 자율적으로 수행하는 시스템입니다. 단순 챗봇과 달리 목표 달성까지 자율 루프로 동작합니다.
- AI 정렬 (AI alignment) AI 시스템이 인간의 의도, 가치, 안전 목표를 따르도록 보장하여 원치 않는 결과를 막는 것을 목표로 하는 연구 분야로, 프론티어 모델 개발의 중심 과제입니다.
- AI Act 제50조(투명성) EU AI Act 제50조는 투명성 의무를 규정합니다 — 챗봇, 딥페이크, AI 생성 콘텐츠는 명확히 표시되어야 하며 2026년 8월부터 시행됩니다.