LLM이 ‘인간의 직관’을 배울 수 있을까? 정책 최적화(PO)의 새로운 흐름 이해하기
1. AI에게 ‘옳고 그름’을 가르치는 방법: 정책 최적화란? 2. RLHF의 복잡함을 걷어낸 혁신: Direct Preference Optimization (DPO)의 진화 3. 답변의 ‘논리적 깊이’를 더하는 기술: ORPO와 KTO 4. 실무자가 마주하는 현실적인 고민들 5. 정책 최적화가 열어갈 미래: 더 인간다운 AI 요약 및 마무리
세상을 읽는 완벽한 지식 큐레이션
1. AI에게 ‘옳고 그름’을 가르치는 방법: 정책 최적화란? 2. RLHF의 복잡함을 걷어낸 혁신: Direct Preference Optimization (DPO)의 진화 3. 답변의 ‘논리적 깊이’를 더하는 기술: ORPO와 KTO 4. 실무자가 마주하는 현실적인 고민들 5. 정책 최적화가 열어갈 미래: 더 인간다운 AI 요약 및 마무리