🧠 ChatGPTκ°€ 닡변을 μž˜ν•˜λŠ” 4κ°€μ§€ 핡심 이유

1. λ°©λŒ€ν•œ 사전 ν•™μŠ΅ (Pre-training on massive data)

πŸ’‘ μ–΄λ–€ ν•™μŠ΅μ„ ν–ˆλ‚˜μš”?

  • ChatGPTλŠ” 인터넷에 곡개된 μ±…, λ‰΄μŠ€, μœ„ν‚€, 포럼 λ“± μˆ˜λ°±μ–΅ 개의 λ¬Έμž₯을 읽고 ν•™μŠ΅ν–ˆμ–΄μš”.

  • λ‹¨μˆœν•œ 정보 μˆ˜μ§‘μ΄ μ•„λ‹ˆλΌ, μ–Έμ–΄μ˜ νŒ¨ν„΄, 의미 μ—°κ²°, λ¬Έμž₯ 흐름을 ν•™μŠ΅ν•œ κ±°μ˜ˆμš”.

πŸ“Œ 예λ₯Ό λ“€μ–΄

β€œλ‚˜λŠ” 였늘 아침에 μΌμ–΄λ‚˜μ„œβ€¦β€ λ‹€μŒμ— μžμ—°μŠ€λŸ½κ²Œ β€œμ»€ν”Όλ₯Ό λ§ˆμ…¨λ‹€β€ 같은 λ¬Έμž₯을 μ˜ˆμΈ‘ν•˜λŠ” λ°©μ‹μœΌλ‘œ ν›ˆλ ¨λ©λ‹ˆλ‹€.

이λ₯Ό μˆ˜μ²œμ–΅ 번 λ°˜λ³΅ν•˜λ©΄μ„œ β€œλ¬Έμž₯이 μ–΄λ–»κ²Œ ν˜λŸ¬κ°€λŠ”μ§€β€ 감을 작게 된 κ±°μ£ .


2. 트랜슀포머(Transformer) ꡬ쑰 기반의 GPT λͺ¨λΈ

πŸ’‘ μ™œ 이 ꡬ쑰가 μ€‘μš”ν•œκ°€μš”?

  • κΈ°μ‘΄μ—λŠ” λ¬Έμž₯을 μˆœμ„œλŒ€λ‘œ ν•˜λ‚˜μ”© μ²˜λ¦¬ν–ˆλŠ”λ°, νŠΈλžœμŠ€ν¬λ¨ΈλŠ” λ¬Έμž₯의 λͺ¨λ“  단어λ₯Ό λ™μ‹œμ— 보고 λ¬Έλ§₯을 μ΄ν•΄ν•΄μš”.

  • 단어 ν•˜λ‚˜ν•˜λ‚˜λ₯Ό μ£Όλ³€ λ¬Έλ§₯κ³Ό 비ꡐ해 μ€‘μš”λ„λ₯Ό κ³„μ‚°ν•©λ‹ˆλ‹€. 이걸 **μ–΄ν…μ…˜ λ©”μ»€λ‹ˆμ¦˜(Attention Mechanism)**이라고 ν•΄μš”.

πŸ“Œ μ‰½κ²Œ λ§ν•˜λ©΄

λˆ„κ°€ λ§ν–ˆλŠ”μ§€, μ–΄λ–€ 상황인지, μ•žλ’€ 말이 μ–΄λ–»κ²Œ μ—°κ²°λ˜λŠ”μ§€λ₯Ό ν•œλˆˆμ— νŒŒμ•…ν•˜λŠ” λŠ₯λ ₯이 μžˆλŠ” μ…ˆμ΄μ£ .


3. 인간 ν”Όλ“œλ°± 기반의 κ°•ν™” ν•™μŠ΅ (RLHF)

πŸ’‘ 이게 λ­”κ°€μš”?

  • λͺ¨λΈμ΄ μƒμ„±ν•œ 닡변듀을 μ‚¬λžŒμ΄ 직접 보고 ν‰κ°€ν•΄μš”.


    β€œμ΄κ²Œ 더 μžμ—°μŠ€λŸ½λ‹€β€, β€œμ΄κ±΄ λΆ€μ μ ˆν•˜λ‹€β€ 같은 ν”Όλ“œλ°±μ„ μ£ΌλŠ” κ±°μ£ .

  • κ·Έ ν”Όλ“œλ°±μ„ λ°”νƒ•μœΌλ‘œ AIκ°€ 더 쒋은 닡변을 λ§Œλ“€λ„λ‘ ν›ˆλ ¨ν•˜λŠ” 게 RLHFμž…λ‹ˆλ‹€.

πŸ“Œ μ–΄λ–»κ²Œ μ‚¬μš©λ˜λ‚˜μš”?

  • A와 BλΌλŠ” 두 개의 닡변이 μžˆμ„ λ•Œ, μ‚¬λžŒμ΄ Aκ°€ 더 λ‚˜μ€ 닡변이라고 ν‰κ°€ν•˜λ©΄, β†’ AIλŠ” A 같은 닡변을 더 자주, 더 μš°μ„ μ μœΌλ‘œ μƒμ„±ν•˜λ„λ‘ λ³΄μƒλ°›μ•„μš”.

4. λŒ€ν™”ν˜• μ΅œμ ν™” (Instruction tuning & Dialogue fine-tuning)

πŸ’‘ μ‚¬μš©μžμ˜ λͺ…령어에 λ°˜μ‘ν•˜λ„λ‘ νŠΉλ³„νžˆ ν›ˆλ ¨

  • ChatGPTλŠ” λ‹¨μˆœνžˆ 글을 잘 μ“°λŠ” AIκ°€ μ•„λ‹ˆλΌ, **β€œμ§ˆλ¬Έμ— μ•Œλ§žκ²Œ λ°˜μ‘ν•˜λŠ” 법”**을 ν•™μŠ΅ν–ˆμ–΄μš”.

  • 예: β€œ3μ€„λ‘œ μš”μ•½ν•΄μ€˜β€ β†’ μš”μ•½ λ°©μ‹μœΌλ‘œ, β€œμΉœμ ˆν•˜κ²Œ μ„€λͺ…ν•΄μ€˜β€ β†’ 말투λ₯Ό μ‘°μ ˆν•¨

πŸ” μ •λ¦¬ν•˜μžλ©΄

핡심 μš”μ†Œμ„€λͺ…
사전 ν•™μŠ΅λ°©λŒ€ν•œ μ–‘μ˜ μ–Έμ–΄ 데이터λ₯Ό 톡해 νŒ¨ν„΄ ν•™μŠ΅
트랜슀포머문λ§₯κ³Ό 관계λ₯Ό λ™μ‹œμ— μ΄ν•΄ν•˜λŠ” ꡬ쑰
RLHFμ‚¬λžŒ ν”Όλ“œλ°±μœΌλ‘œ 더 μžμ—°μŠ€λŸ½κ³  μ μ ˆν•œ λ‹΅λ³€ 생성
λŒ€ν™” νŠœλ‹μ‚¬μš©μž μ˜λ„μ— λ§žλŠ” λ‹΅λ³€ 방식 ν•™μŠ΅

πŸ“Œ ChatGPTλŠ” λ§ˆμΉ˜β€¦

“μˆ˜λ§Žμ€ 책을 읽고, λ˜‘λ˜‘ν•œ μ„ μƒλ‹˜μ—κ²Œ 첨삭을 λ°›κ³ , λ§νˆ¬κΉŒμ§€ 배운 AI μž‘κ°€” κ°™λ‹€κ³  λ³Ό 수 μžˆμ–΄μš”.


μ½”λ¦¬μ•„λ² μŠ€νŠΈ
https://koreabest.org

κ²Œμ‹œμΌ: 2025λ…„ 4μ›” 15일, ν™”μš”μΌ, μ˜€μ „ 12μ‹œ 50λΆ„(ν•œκ΅­μ‹œκ°„).

μ°Έκ³ λ¬Έν—Œ:

β€œμ±—GPTκ°€ 닡변을 μž˜ν•˜λŠ” μ΄μœ μ— λŒ€ν•΄μ„œ ꡬ체적이고 μžμ„Έν•˜κ²Œ μ„€λͺ…ν•΄μ€˜.”, https://chatgpt.com/g/g-Vrk9qUa4b-muryo-hangugeo-gpt, κ²€μƒ‰μΌμ‹œ: 2025λ…„ 4μ›” 15일, ν™”μš”μΌ, μ˜€μ „ 12μ‹œ 50λΆ„(ν•œκ΅­μ‹œκ°„).