ํ‹ฐ์Šคํ† ๋ฆฌ ๋ทฐ

LLM ์ด๋ž€ 

๋Œ€๊ทœ๋ชจ '์–ธ์–ด ๋ชจ๋ธ'์œผ๋กœ

์ปดํ“จํ„ฐ์—๊ฒŒ ์–ธ์–ด๋ฅผ ๊ฐ€๋ฅด์น˜๋Š” ๋ฐฉ๋ฒ• ์ด๋‹ค.

 

 

์—ฌ๋Ÿฌ๊ฐ€์ง€ ์–ธ์–ด ๋ชจ๋ธ์ด ์กด์žฌ

 

1. ํ†ต๊ณ„์  ์–ธ์–ด ๋ชจ๋ธ - ์ดˆ์ฐฝ๊ธฐ ์–ธ์–ด ๋ชจ๋ธ๋กœ ํ†ต๊ณ„๋ฅผ ๊ธฐ๋ฐ˜ํ•˜์—ฌ ํ•™์Šต

 

n-gram ํ˜•ํƒœ

The cat sat on the mat

 

1-gram

The / cat / sat / on / the / mat

 

2-gram

The cat / cat sat / sat on ...

 

3-gram

The cat sat / cat sat on ....

 

-> ํ†ต๊ณ„์  ํŒจํ„ด ํ•™์Šต์„ ํ†ตํ•œ ์˜ˆ์ธก

๋‹จ์ : ๋ฌธ๋งฅ ์ดํ•ด๋„๊ฐ€ ๋–จ์–ด์ง

 

 

2. ์‹ ๊ฒฝ๋ง ์–ธ์–ด ๋ชจ๋ธ

 

 

์ธ๊ฐ„์˜ ๋‰ด๋Ÿฐ ์„ธํฌ๊ฐ€ ์„œ๋กœ ์—ฐ๊ฒฐ๋˜์–ด ์ •๋ณด ์ฒ˜๋ฆฌํ•˜๋Š” ๋ฐฉ์‹์„ ๋ณธ ๋”ฐ ๋งŒ๋“ฆ

 

์ž…๋ ฅ์ธต -> ์€๋‹‰์ธต(๋ฐ์ดํ„ฐ ์ฒ˜๋ฆฌ, ํŒจํ„ด ํ•™์Šต) -> ์ถœ๋ ฅ์ธต

 

 

๋Œ€ํ‘œ์ ์ธ ์‹ ๊ฒฝ๋ง ์–ธ์–ด ๋ชจ๋ธ

1) RNN(Recurrent Neural Networks)

- ์‹œํ€€์Šค ๋ฐ์ดํ„ฐ ์ฒ˜๋ฆฌ์šฉ์œผ๋กœ ์ฃผ์‹ ๊ฐ€๊ฒฉ, ๋‚ ์”จ ๋ณ€ํ™” ๋“ฑ ์‹œ๊ฐ„์— ๋”ฐ๋ฅธ ๋ถ„์„์œผ๋กœ ๋ฏธ๋ž˜ ์˜ˆ์ธก ๊ฐ€๋Šฅ

๋‹จ์ : ๊ธด ์‹œํ€€์Šค๋ฅผ ์ฒ˜๋ฆฌํ•˜๊ธฐ์— ๋ฐ์ดํ„ฐ ์ €์žฅ ๊ณต๊ฐ„์ด ์ ์Œ

 

 

 

2) LSTM(Long Short-Term Memory Networks)

- RNN์— ๋ฉ”๋ชจ๋ฆฌ(์žฅ๊ธฐ ๊ธฐ์–ต์šฉ)๋ฅผ ์ถ”๊ฐ€ํ•จ. ๊ธด ์‹œํ€€์Šค๋„ ์ฒ˜๋ฆฌ ๊ฐ€๋Šฅ

 

 

3. ํŠธ๋žœ์Šคํฌ๋จธ (์ตœ์‹  ์–ธ์–ด ๋ชจ๋ธ)

- ๊ตฌ๊ธ€ ๋ธŒ๋ ˆ์ธ์—์„œ ๋ฐœํ‘œํ•œ ์–ธ์–ด ํ•™์Šต ๋ชจ๋ธ ์•„ํ‚คํ…์ณ

- ๋ฌธ์žฅ๊ณผ ๋‹จ๋ฝ ์ „์ฒด๋ฅผ ์ฒ˜๋ฆฌํ•  ์ˆ˜ ์žˆ์Œ

 

1) BERT (Bidirectional Encoder Representations from Transformers)

- ์ฃผ์–ด์ง„ ๋ฌธ์žฅ์„ ์–‘๋ฐฉํ–ฅ(Bidirectional)์œผ๋กœ ํ•™์Šตํ•˜์—ฌ ๋ฌธ๋งฅ์„ ํŒŒ์•…ํ•˜๋Š” ์–ธ์–ด ๋ชจ๋ธ

 

2) GPT (Generative Pretrained Transformer)

- ์˜คํ”ˆ AI์— ์˜ํ•ด ๊ฐœ๋ฐœ๋œ ์ธ๊ณต์ง€๋Šฅ ์–ธ์–ด ๋ชจ๋ธ

- ๋‹ค๋ฅธ ์–ธ์–ด ๋ชจ๋ธ์— ๋น„ํ•ด ์ž์—ฐ์Šค๋กœ์šด ํ…์ŠคํŠธ ์ƒ์„ฑ, ์ˆ˜์ค€ ๋†’์€ ๋Œ€ํ™”

 

 

 

์–ธ์–ด ๋ชจ๋ธ์— ๋Œ€ํ•ด ์•Œ์•„๋ดค๊ณ , LLM์— ๋Œ€ํ•ด ์•Œ์•„๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค.

 

 

LLM (Large Language Model) - GPT-3.5, GPT-4, ๊ตฌ๊ธ€์˜ ๋ฒ„ํŠธ, ์ œ๋ฏธ๋‚˜์ด

- ๋Œ€๊ทœ๋ชจ ๋ฐ์ดํ„ฐ๋กœ ํ•™์Šต๋์Œ

- GPT-3

- 45TB ๋ฐ์ดํ„ฐ ํ•™์Šต

- ํ…์ŠคํŠธ ํŽ˜์ด์ง€ ์ˆ˜์‹ญ์–ต์žฅ

 

- ๋ชจ๋ธ์˜ ํฌ๊ธฐ๋„ ํผ (ํŒŒ๋ผ๋ฏธํ„ฐ์˜ ์ˆ˜)

- ํŒŒ๋ผ๋ฏธํ„ฐ๋ž€ ๋ฐ์ดํ„ฐ ์—ฐ๊ฒฐ ๋ฐฉ๋ฒ•

- GPT-3 1750์–ต๊ฐœ

- GPT-2 15์–ต๊ฐœ

 

 

 

LLM์˜ ํŠน์ง•

 

1. ๋ฐ์ดํ„ฐ ํ•™์Šต - ์ธํ„ฐ๋„ท ํ…์ŠคํŠธ, ์ฑ…, ๋…ผ๋ฌธ, ๊ธฐ์‚ฌ ๋“ฑ ๋ฐฉ๋Œ€ํ•œ ๋ฐ์ดํ„ฐ

2. ๋ฐ์ดํ„ฐ ์ดํ•ด ๋ฐ ์ƒ์„ฑ - ์–ธ์–ด๋ฅผ ์ดํ•ดํ•˜๊ณ  ์ƒ์„ฑํ•˜๋Š” ๊ณผ์ •, ์งˆ๋ฌธ ๋‹ต๋ณ€, ๊ธ€ ์ž‘์„ฑ, ๋Œ€ํ™” ์ƒ์„ฑ

3. ํŠน์ • ์ž‘์—…์„ ์œ„ํ•œ ์ถ”๊ฐ€ ํ•™์Šต (ํŒŒ์ธํŠœ๋‹)

4. GPU, TPU(๊ตฌ๊ธ€ ํ•˜๋“œ์›จ์–ด)๊ฐ€ ํ•„์š”

 

 

LLM ์ข…๋ฅ˜

 

1. GPT-4

- ๋ฉ€ํ‹ฐ ๋ชจ๋‹ฌ ์ง€์›

- ์‚ฌ์ง„+์งˆ๋ฌธ์œผ๋กœ ๋‹ต๋ณ€ ์ƒ์„ฑ

- ํ…์ŠคํŠธ, ์ด๋ฏธ์ง€, ์˜ค๋””์˜ค, ๋น„๋””์˜ค ์ฒ˜๋ฆฌ ๊ฐ€๋Šฅ

 

2. ํŒœ2 (PaLM2)

- Google I/O 20023์—์„œ ๊ณต๊ฐœ

- GPT-4 ๋ณด๋‹ค๋Š” ..

 

3. ๋ผ๋งˆ2 (LLaMA2)

- ๋ฉ”ํƒ€์—์„œ ๊ฐœ๋ฐœ

- ์˜คํ”ˆ์†Œ์Šค๋กœ ์ œ๊ณต

- ์ง‘๋‹จ์ง€์„ฑ์„ ํ†ตํ•ด ์•ˆ์ „๊ณผ ๋ณด์•ˆ์„ ํ–ฅ์ƒ์‹œํ‚ฌ ์ˆ˜ ์žˆ๋‹ค๊ณ ..

 

 

 

LLM vs GAI

 

- LLM์€ ์œ„ ์˜ˆ์‹œ..

- ํ…์ŠคํŠธ ์œ„์ฃผ ํ•™์Šต

- ํ…์ŠคํŠธ ๊ธฐ๋ฐ˜ ์งˆ๋ฌธ ๋‹ต๋ณ€

- ์งˆ๋ฌธ์„ 'prompt' ๋ผ๊ณ  ํ•จ

- ์งˆ๋ฌธ์— ๋Œ€ํ•œ ๋‹ต๋ณ€์€ 'completion'

 

 

GAI (Generative AI)

- ์ƒˆ๋กœ์šด ์ปจํ…์ธ ๋ฅผ ์ƒ์„ฑํ•˜๋Š” ๋ชฉ์ 

- ํ…์ŠคํŠธ, ์ด๋ฏธ์ง€, ์Œ์•…, ๋น„๋””์˜ค ๋“ฑ

- DALL E2 ๋กœ ๊ทธ๋ฆผ ์ƒ์„ฑ (DALL E3๊นŒ์ง€๋‚˜์˜จ๋“ฏ)

https://openai.com/index/dall-e-3/

 

 

 

 

 

LLM ์ƒ์„ฑ ๊ณผ์ •

 

1. ๋ฐ์ดํ„ฐ ์ˆ˜์ง‘ ๋ฐ ์ค€๋น„

- 1) ํ•™์Šตํ•  ๋ฐ์ดํ„ฐ ์‹๋ณ„ ๋ฐ ๋ฐ์ดํ„ฐ ์ˆ˜์ง‘

- 2) ํ•™์Šตํ•  ๋ฐ์ดํ„ฐ ํ’ˆ์งˆ ํ–ฅ์ƒ - ์ค‘๋ณต ์ œ๊ฑฐ, ๋ฌด์˜๋ฏธ ๋ฐ์ดํ„ฐ(์˜คํƒ€, ๊ด€๋ จ์—†๋Š” ๋ฐ์ดํ„ฐ) ์ œ๊ฑฐ

- 3) data๋ฅผ LLM ํ•™์Šต์šฉ ๋ฐ์ดํ„ฐ๋กœ ๋ณ€ํ™˜ - (๋ฌธ์žฅ์„ ์ž‘์€ ๋‹จ์œ„๋กœ ํ† ํฐํ™”, ์ •๊ทœํ™”)

- 4) ๋ฐ์ดํ„ฐ ํ˜•์‹๋ณ€๊ฒฝ - YYYY-MM-DD

 

2. ๋ชจ๋ธ ์„ค๊ณ„

- 1) ํฐ ์‹ ๊ฒฝ๋ง์„ ๊ตฌ์ถ•ํ•˜๋Š” ๊ฒƒ์„ ์˜๋ฏธ

- 2) ์ฃผ๋กœ ํŠธ๋žœ์Šคํฌ๋จธ๋ผ๋Š” ์–ธ์–ด ๋ชจ๋ธ๋กœ ์„ค๊ณ„

- 3) ๊ณ„์ธต์ˆ˜, ํ•™์Šต๋ฅ , ๋ฐฐ์น˜ํฌ๊ธฐ๋“ฑ์„ ์กฐ์ ˆํ•˜๋Š” 'ํ•˜์ดํผํŒŒ๋ผ๋ฏธํ„ฐ'๋ฅผ ์กฐ์ ˆํ•˜์—ฌ ์–ด๋–ป๊ฒŒ ํ•™์Šตํ• ์ง€ ๊ฒฐ์ •

 

3. ๋ชจ๋ธ ํ•™์Šต

- 1) ์„ค์ •ํ•œ ํ•˜์ดํผํŒŒ๋ผ๋ฏธํ„ฐ์™€ ๋ชจ๋ธ ์•„ํ‚คํ…์ณ(ํŠธ๋žœ์Šคํฌ๋จธ)๋กœ ๋ฐ์ดํ„ฐ ํ•™์Šต, ํŒจํ„ด ํ•™์Šต

- 2) ๋‚ด๋ถ€์ ์œผ๋กœ ๋ชจ๋ธ๋ง ํ•˜์—ฌ ํ…์ŠคํŠธ๋ฅผ ์ƒ์„ฑํ•˜์—ฌ ๋ฒˆ์—ญ, ๋“ฑ ํ•™์Šตํ•˜๋Š” ๊ณผ์ •

- 3) ๋ชจ๋ธ๋ง - ๋ฐ์ดํ„ฐ์˜ ํŠน์ง•, ๊ด€๊ณ„ ๋“ฑ์„ ํ•™์Šตํ•˜๊ณ  ์ˆ˜ํ•™์  ๊ตฌ์กฐ๋กœ ํ‘œํ˜„ํ•˜๋Š” ๊ณผ์ •

- 4) e.g. ๊ฐœ์ธ์ง€ ๊ณ ์–‘์ด์ธ์ง€ ๊ตฌ๋ถ„ํ•˜๋Š” ํŒจํ„ด์ด '๋ชจ๋ธ๋ง'

 

 

4. ํ‰๊ฐ€ ๋ฐ ๊ฒ€์ฆ

5. ๋ฐฐํฌ ๋ฐ ์œ ์ง€ ๋ณด์ˆ˜

 

 

 

์ถ”๊ฐ€์ ์œผ๋กœ ๊ณ ๋ ค์‚ฌํ•ญ

LLM ๋ฐฐํฌ ์‹œ ์œค๋ฆฌ์  ๋ฒ•์  ์‚ฌํšŒ์  ์ฑ…์ž„์„ ๊ณ ๋ คํ•ด์•ผํ•จ.

 

์ง€์†์  ๊ฐ์‹œ ๋ฐฉ๋ฒ•

- 1) AI๊ฐ€ ์Šค์Šค๋กœ ์•…์˜์  ๋ฌธ๊ตฌ๋ฅผ ํƒ์ง€

- 2) ์‚ฌ๋žŒ์ด 'completion'์„ ์ ๊ฒ€

 

 

๋Œ“๊ธ€