잡다한 IT 관심사
  • 홈
  • 태그
  • 방명록
  • 메뉴 닫기
  • 글작성
  • 방명록
  • 환경설정
    • 분류 전체보기 (86)
      • 유용한 IT 정보들 (64)
        • IT기기 리뷰 (0)
        • IT 뉴스 (0)
      • 가전기기 (1)
        • 가전기기 꿀팁 (1)
      • 자동차, Car (8)
        • 자동차관련 IT기기 (0)
        • 자동차 꿀팁 (1)
  • 홈
  • 태그
  • 방명록
카테고리 없음

챗GPT, 왜 가끔 거짓말할까? 쉽게 알려줄게!

요즘 많은 사람들이 똑똑한 인공지능인 챗GPT를 쓰고 있어요. 궁금한 걸 물어보면 바로바로 대답해주고, 글도 멋지게 써주니까요! 그런데, 가끔은 엉뚱한 대답을 하는 거, 혹시 알고 있었나요? 예를 들어, "우리 엄마 음력 생일이 언제야?" 라고 물어봤는데, 날짜를 잘못 알려주는 거예요. 왜 이런 일이 생기는 걸까요? 그리고 우리는 어떻게 하면 정확한 답을 얻을 수 있을까요? 이제부터 초등학생도 쉽게 알 수 있게 하나씩 설명해줄게요! 1. 챗GPT는 '천재'지만, '모든 걸 알진 않아요' 챗GPT는 마치 책을 엄청 많이 읽은 똑똑한 친구 같아요. 그런데 이 친구는 직접 세상을 경험하지 못했어요. 그냥 책, 인터넷 글, 뉴스 같은 걸 보고 배운 거예요. 그래서 어떤 질문을 하면 “내가 배운 글 중에서 가..

2025. 6. 4. 16:28
유용한 IT 정보들

할루시네이션(거짓 정보 생성) 없는 ChatGPT 답변, 이렇게 막는다! 정확도 높이는 프롬프트 5가지

GPT가 거짓 정보를 말한 적 있으신가요? 생성형 AI의 ‘할루시네이션’을 줄이기 위한 정확한 프롬프트 작성법 5가지를 정리했습니다. 실제 실무에서 써먹을 수 있는 프롬프트 예시와 함께 지금 바로 확인해보세요!정확한 AI 답변을 원하신다면 아래 프롬프트부터 적용해보세요!!! ChatBot '지침'에 직접 넣으시거나 대화창에 넣어서 이것을 적용해줘라고 하시면 됩니다! 1. 생성형 AI의 ‘할루시네이션’, 왜 생기나요? GPT는 입력된 문맥에 따라 가장 그럴듯한 답변을 생성하는 방식이기 때문에,실제 데이터에 없는 정보도 ‘있을 법한 내용’처럼 말하는 경우가 생깁니다. 저 역시 GPT에게 논문 요약을 맡겼다가,존재하지 않는 논문 제목과 저자를 인용한 경험이 있었어요.검증 없이 사용했다면 정말 위험했..

2025. 4. 24. 16:43
  • «
  • 1
  • »
반응형

전체 카테고리

  • 분류 전체보기 (86)
    • 유용한 IT 정보들 (64)
      • IT기기 리뷰 (0)
      • IT 뉴스 (0)
    • 가전기기 (1)
      • 가전기기 꿀팁 (1)
    • 자동차, Car (8)
      • 자동차관련 IT기기 (0)
      • 자동차 꿀팁 (1)
Powered by Privatenote Copyright © 잡다한 IT 관심사 All rights reserved. TistoryWhaleSkin3.4

티스토리툴바