본문 바로가기
프롬프트 엔지니어링

[프롬프트 엔지니어링] 프롬프트 엔지니어링 원 포인트 레슨

by QueryJun 2025. 7. 11.

1. 반복적 명령 vs. 한 번에 지시

  • 반복적 명령
    • 한 번에 너무 많은 정보를 담기보다는, 단계별로 작은 작업을 차근차근 요청
    • 예) “먼저 A를 해줘. 그것이 끝나면 B를 해줘.”
  • 한 번에 지시
    • 복잡한 작업을 한 번에 모두 설명하는 방식
    • 예) “A와 B와 C를 동시에 해줘.”
  • 언제 사용하나?
    • 간단한 작업에선 한 번에 지시가 편리하지만, 복잡·장기 과제일수록 반복적 접근이 실수를 줄입니다.

2. 원샷 러닝(One-shot Learning)

  • 정의
    • 모델에게 작업 지시와 함께 ‘단 하나의’ 예시만 제공
  • 특징
    • 예시가 1개뿐이라 간단하게 시작 가능
    • 예시 하나가 대표성을 충분히 가져야 함
  • 장점·단점
    • 장점: 프롬프트가 짧고 깔끔
    • 단점: 예시 하나만으로는 모델이 작업 의도를 잘못 이해할 위험
  • 예시
  • text

    [프롬프트] - 작업: 고객 문의 메일을 공손한 답장으로 바꿔줘 - 예시: 원문: “배송 언제 되나요?” 변환: “안녕하세요, 고객님. 문의하신 배송 일정은 OO일 예정입니다...” “다음 메일을 공손하게 변환해줘: [사용자 메일]”

3. 퓨샷 러닝(Few-shot Learning)

  • 정의
    • 2~3개에서 수십 개의 예시를 프롬프트에 함께 제공
  • 특징
    • 사례가 다양할수록 모델의 ‘일관된’ 출력을 유도
    • 예시 수가 늘면 프롬프트 길이도 늘어 처리 비용 증가
  • 언제 유용한가?
    • 작업 예시가 충분히 축적되어 있을 때
    • 다양한 입력 유형(형식, 길이, 어투 등)을 포괄해야 할 때
  • 예시 구조
  • text

    [프롬프트] 1) “원문 A” → “변환 A” 2) “원문 B” → “변환 B” 3) “원문 C” → “변환 C” “이제 다음 원문을 같은 방식으로 변환해줘: [새 입력]”

4. 체인 오브 소트(Chain of Thought, CoT)

  • 정의
    • 문제 해결 과정을 ‘생각의 단계’로 상세히 모델에 안내
  • 어떻게 쓰나?
    • “1) 문제 분석 2) 가능한 해법 검토 3) 최종 답안” 같은 형식으로 가이드
  • 장점
    • 복잡한 논리·수학·추론 문제에서 더 정확한 답을 끌어냄
  • 예시
  • text

    [질문] 사과 3개를 친구와 나눠 가지려면 몇 개씩 가져야 하나? [생각의 단계] 1) 전체 사과 개수: 3개 2) 나눌 인원: 친구 1명 + 나 1명 = 2명 3) 3 ÷ 2 = 1.5 [답변] 한 사람당 1.5개씩 가집니다.

5. 제로샷 CoT (Zero-shot Chain of Thought)

  • 정의
    • CoT처럼 단계별 가이드는 주되, 예시(샘플 풀이)는 제공하지 않는 방식
  • 특징
    • “생각을 이렇게 쪼개서 풀어달라”는 지시만 포함
    • 예시가 없으므로 모델이 ‘올바른’ 사고 단계를 선택하도록 유도해야 함
  • 주의사항
    • 단계 지침이 모호하면 잘못된 절차를 따를 수 있음
    • 단계별 세부 내용은 가능한 명확히 작성


6. 컨텍스트(Context)의 중요성

  • 정의
    • 모델에 주어지는 ‘배경 정보’ 전체
  • 역할
    • 작업 의도, 포맷, 톤(격식·친근함) 등을 결정
  • 베스트 프랙티스
    1. 목적: 해당 프롬프트로 무엇을 얻고 싶은지
    2. 형식: 결과물을 표, 목록, 문단 등 어떤 형태로 줄지
    3. 제약조건: 글자 수, 금칙어, 출력 언어 등
  • 예시
  • text

    “당신은 금융 전문가입니다. 300자 이내로 친근한 어조로, 2025년 한국 주식시장 전망을 요약해 주세요.”

7. 임베딩(Embedding)

  • 정의
    • 텍스트(단어, 문장, 문단 등)를 수치 벡터로 변환하는 과정
  • 왜 필요한가?
    • 모델이 언어 간 유사도를 계산하고, 검색·분류·추천 등에 활용
  • 특징
    • 고차원 공간에서 의미적으로 가까운 단어일수록 유사 벡터
    • 사전 학습된 임베딩(Word2Vec, FastText) 또는 LLM 내장 임베딩 사용
  • 활용 예시
    • 검색: 사용자 질의(벡터)와 문서(벡터) 유사도 계산
    • 추천: 유사한 콘텐츠 벡터 간 거리 비교

마무리

위 기법들을 적절히 조합하면 LLM 활용 효율이 크게 올라갑니다.

  • 작업이 간단할 땐 → 원샷/퓨샷 러닝
  • 논리적 추론이 필요할 땐 → CoT/제로샷 CoT
  • 유사도 기반 검색·추천 땐 → 임베딩 활용
  • 항상 → 충분한 컨텍스트와 명확한 지침을 제공

블로그 글 작성 시 각 섹션에 예시 프롬프트와 모델 출력을 스크린샷하거나 코드 블록으로 첨부하면 독자가 이해하기 훨씬 수월해집니다.

반응형