ChatGPT 학습 일지: 프롬프트 엔지니어링과 퓨샷러닝
오늘은 ChatGPT와 프롬프트 엔지니어링에 대해 공부한 내용을 정리해보려고 합니다. 특히 퓨샷러닝(Few-shot Learning)이라는 흥미로운 기법에 대해 배웠는데요, 이를 통해 가상 인물을 만들고 MBTI를 출력하는 실습도 해보았습니다. 그 외에도 토큰, 멀티턴, 싱글턴, 할루시네이션 등 중요한 개념들도 함께 살펴보았습니다.
프롬프트 엔지니어링과 퓨샷러닝
프롬프트 엔지니어링은 AI 모델에게 더 나은 결과를 얻기 위해 입력(프롬프트)을 최적화하는 기술입니다
1. 그 중에서도 퓨샷러닝은 적은 양의 예시만으로 AI가 새로운 작업을 수행할 수 있게 하는 강력한 기법입니다
2.퓨샷러닝의 핵심은 모델에게 몇 가지 예시를 제공하여 원하는 출력 형식이나 스타일을 암시적으로 가르치는 것입니다. 이를 통해 모델은 주어진 패턴을 빠르게 학습하고 유사한 작업을 수행할 수 있게 됩니다
3.실습: 가상 인물 생성과 MBTI 출력
퓨샷러닝을 활용하여 가상의 인물을 만들고 그 인물의 MBTI를 출력하는 실습을 진행했습니다. 이 과정에서 ChatGPT에게 몇 가지 예시를 제공하고, 그 패턴을 따라 새로운 인물을 생성하도록 했습니다.
이는 퓨샷러닝의 강력함을 직접 체험할 수 있는 좋은 기회였습니다.
기타 프롬프트 엔지니어링에 중요한 개념들
토큰 (Token)
토큰은 ChatGPT가 텍스트를 처리하는 기본 단위입니다. 영어의 경우 대략 4글자가 1토큰이며, 한글은 글자당 2-3토큰으로 계산됩니다. 토큰 수는 모델의 처리 능력과 비용에 직접적인 영향을 미치므로, 효율적인 프롬프트 작성을 위해 중요한 개념입니다.
멀티턴 vs 싱글턴
멀티턴은 ChatGPT와 여러 차례 대화를 주고받는 방식을 말합니다. 이를 통해 복잡한 주제에 대해 더 깊이 있는 대화를 나눌 수 있습니다. 반면 싱글턴은 한 번의 프롬프트로 원하는 결과를 얻는 방식입니다. 각각의 장단점이 있어 상황에 따라 적절히 선택해야 합니다.
할루시네이션 (Hallucination)
AI 할루시네이션은 모델이 잘못되거나 존재하지 않는 정보를 사실인 것처럼 생성하는 현상을 말합니다. 이는 불완전한 학습 데이터나 모델의 한계로 인해 발생할 수 있으며, AI 시스템의 신뢰성에 큰 영향을 미칠 수 있는 중요한 문제입니다.
초보도 이해할 수 있도록 예를 든 퓨샷러닝 설명
숫자 게임으로 이해하는 퓨샷러닝
상상해 보세요. 여러분이 새로운 숫자 게임을 배우려고 해요. 이 게임의 규칙은 "주어진 숫자에 3을 더하고 2를 곱하는 것"입니다.
먼저, 선생님이 두 가지 예시만 보여줍니다:
1 → 8 (1에 3을 더하고 2를 곱함: (1+3)×2 = 8)
2 → 10 (2에 3을 더하고 2를 곱함: (2+3)×2 = 10)
이제 여러분은 이 두 가지 예시만 가지고 게임의 규칙을 이해해야 해요.
그 다음, 선생님이 새로운 숫자 5를 주고 답을 물어봅니다.
여러분은 앞서 본 두 가지 예시를 바탕으로 규칙을 추측하고, 5에 대한 답을 계산합니다:
5 → 16 (5에 3을 더하고 2를 곱함: (5+3)×2 = 16)
이렇게 아주 적은 예시(이 경우 두 개)만으로 새로운 규칙을 배우고 적용하는 것이 바로 퓨샷러닝의 원리예요.
컴퓨터도 이와 비슷한 방식으로, 아주 적은 예시만으로 새로운 작업을 수행하는 법을 배울 수 있답니다.
이처럼 퓨샷러닝은 우리가 일상생활에서 새로운 것을 빠르게 배우는 방식과 비슷해요. 적은 정보로도 패턴을 파악하고 새로운 상황에 적용할 수 있는 능력, 그것이 바로 퓨샷러닝의 핵심이랍니다.
오늘 배운 내용들은 ChatGPT를 더 효과적으로 활용하는 데 큰 도움이 될 것 같습니다.
특히 퓨샷러닝을 통한 가상 인물 생성 실습은 AI의 학습 능력을 직접 체험할 수 있는 흥미로운 경험이었습니다.
앞으로도 이러한 기술들을 더 깊이 이해하고 활용하여 AI와의 더 풍부한 상호작용을 만들어나가고 싶습니다.