Leaf Model Factory Manual
모델 선택부터 데이터셋 생성, 파인튜닝, 평가, 패키징, 로컬·클라우드 배포까지의 전체 공정 가이드
01Getting Started
LeafCloud Model Factory를 시작하기 위한 초기 설정입니다.
Workspace Creation
워크스페이스를 생성하여 프로젝트를 시작합니다.
회사명 입력
프로젝트명 입력
사용 목적 선택
로컬/클라우드 실행 방식 선택
보안 수준 선택
Purpose Selection
모델의 목적을 선택합니다. 목적에 따라 추천 모델 조합이 달라집니다.
사내 문서 AI
코딩 에이전트
멀티모달 콘텐츠 AI
아바타 AI
RAG 업무봇
기업용 SLLM
02Model Plan Generation
LeafCloud가 목적에 맞는 모델 조합을 추천합니다.
Recommended Configuration
Router Model
Qwen 3B요청 분류 및 라우팅
Main LLM
Qwen 7B주요 추론 모델
Code Model
DeepSeek Coder코드 생성 전문 모델
Embedding
BGE-M3벡터 임베딩 모델
Runtime Local
MLX/Ollama로컬 실행 환경
Runtime Cloud
vLLM/LoRAX클라우드 실행 환경
Training
QLoRA + DPO + Tool-use학습 방식
03Model Comparison Workbench
추천 모델을 실제로 호출해 속도와 품질을 비교합니다.
Measurement Metrics
응답 시간
첫 토큰 시간
초당 토큰 수
한국어 품질
코딩 품질
RAG 정확도
Tool-call 성공률
MCP-call 성공률
비용
메모리 사용량
04Data Factory
학습에 필요한 데이터를 수집하고 정제합니다.
Data Source Connection
문서 업로드
RAG 인덱스
코드 저장소
대화 로그
Agent 실행 로그
MCP 호출 로그
Tool 실행 로그
사용자 승인/거부
Data Refinement
민감정보 제거
API 키 제거
내부 URL 제거
회사 기밀 마스킹
중복 제거
작업 단위 분리
성공/실패 라벨링
Training Data Generation
SFT
DPO
Tool-use
MCP-use
Skill-use
Orchestration
Harness-loop
Self-evolution
RAG citation
05Capability Layer Setup
모델이 어떤 스킬을 쓰고, 어떤 툴을 호출하고, 어떤 MCP를 연결하고, 어떤 루프를 돌지 정의합니다.
Skill Registry
Tool Registry
MCP Servers
Workflow Templates
Harness Loops
Guardrails
Evaluation Policies
Example Configuration
Skill: React 빌드 오류 수정
Tools: file.read, file.write, terminal.run
MCP: GitHub MCP
Loop: Analyze → Act → Evaluate → Retry
Guardrail: 테스트 통과 전 완료 금지
06Training Factory
파인튜닝 레시피를 선택하고 학습을 실행합니다.
Training Recipes
LoRA / QLoRA
SFT / DPO
Tool-use 학습
MCP-use 학습
Skill-use 학습
Harness-loop 학습
Self-evolution 학습
Execution Environment
Mac Local
MLX / mlx-lm / mlx-tune
GPU Server
LLaMA-Factory / Unsloth / Axolotl
07Evaluation & Benchmark
학습 전후 모델이 실제로 좋아졌는지 확인합니다.
Evaluation Metrics
Base vs Fine-tuned 점수
+15%Skill 선택 정확도
92%Tool-call 성공률
94%MCP-call 성공률
89%Harness-loop 성공률
87%Self-correction 성공률
82%RAG 근거 정확도
91%코드 테스트 통과율
88%작업 완료율
90%응답 속도 개선
+23%08Packaging & Export
학습된 모델을 실행 가능한 Leaf Intelligence Pack으로 만듭니다.
Output Formats
GGUFQ4_K_MMLX FormatHF SafetensorsAWQFP8LoRA AdapterOllama ModelfilevLLM ConfigLoRAX Config
Package Components
Model
Adapter
Prompt
Skills
Tools
MCP Config
Harness Policy
Guardrails
RAG Config
Runtime Config
Eval Report
Deployment Manifest
09Deployment & Serving
로컬 또는 클라우드에 모델을 배포합니다.
Local Deployment
Mac M 시리즈
MLX
Ollama
GGUF
Local RAG
Cloud Deployment
vLLM
LoRAX
GPU Server
API Gateway
Usage Tracking
Team Access
Leaf Runtime Gateway를 통해 로컬과 클라우드를 같은 API로 호출합니다.
10Continuous Learning
실제 사용 중 발생한 Agent Experience를 다시 학습 데이터로 전환합니다.
Collection Items
사용자 요청
선택된 Skill
호출된 Tool
호출된 MCP
Agent 역할 분담
실행 결과
실패 원인
재시도 과정
사용자 승인/거부
품질 점수
데이터 수집
학습 데이터 생성
재학습
새 Pack 배포