*✩⁺˚tomato🍅🌿 (@tomatoO_O)
2025-11-01 | ❤️ 3926 | 🔁 1181
논문쓸 때, 난 일케 함…
-
자료 찾아오라고 시킬 때 …(전략) -wiki에서 절대 가져오지 마라. 없으면 비슷한 다른 내용의 논문으로 갈음하여 가져와라 -가능하면 IF 높은 논문으로 가져와라 -신빙성 퍼센테이지를 항상 문장 뒤에 붙여달라 -출처를 반드시 가져와라 -다운로드 링크도 붙여달라(가능하면 doi) -리뷰논문은 절대 가져오지 마라 -2010년대 이후 논문으로 가져와라. 단, 기초 이론, 개념 정의, 학문적 토대가 되는 논문일때는 그 이전도 가능…(후략)
-
논문 요약할 때 …(전략) -요약하면서 해당 논문이 할루시네이션이 아닌지 검증해 줘… …(후략)
-
논문 번역할 때 …(전략) -한 문단도 빠뜨리거나 생략하지 말고, 천천히 꼼꼼하게 번역해 줘… -정말 있는 논문인지 체크해 줘… …(후략)
-
논문 퇴고할 때 -(전략)… 논문이 문맥에 맞게 인용되었는지 체크해 줘…(후략)
출처 관련해서만 쓴건데… 개인적으로, 이 정도는 잡도리를 해야, LLM과 함께 무사히(?) 논문을 쓸 수 있는 것 같다… 저렇게 잡도리 해도 내용이나 출처에서 애매하게 걸리는게 하나 둘 씩 나온다는게 무서운 점임(…)
그래서 항상 1번 검증 거친 후에 다운 받아서 제목, 저자, 년도 확인하고(여기서 제일 많이 걸러짐) 2번으로 가서 내용 요약한거 쭉 훑어 이상한거 거르고, 3번으로 또 거르고…… 4번으로 또 거르고… 이러다보면 같은 선행연구 계속 읽게 되고, 모르는 단어나 이론 나오면 캐묻고 또 캐물으면서 결국 LLM을 쓰더라도 자연히 공부가 많이 됨… 그런데, 이 정도 검증(이라 쓰고 잡도리라 읽는다)도 안하고 그냥, LLM이 그랬쪙! 하고 그대로 쓰는 사람들은… 공부 안 되는걸 떠나서, 큰일날 확률이 높지 않을까 싶음……
(석사따리가 개인적 경험으로 쓴 글이라, 편향된 시각이 있을 수 있읍니다…🫠)
인용 트윗
GeekNews (@GeekNewsHada)
AI를 인용하지 마세요 - LLM의 답변은 사실이 아니에요
- 대형 언어 모델(LLM) 의 응답은 사실이 아니라, 단어의 통계적 예측 결과임
- ChatGPT, Claude, Gemini 등은 가장 그럴듯한 다음 단어를 예측할 뿐, 정보의 출처나 진위를 인식하지 않음
- 이들은 설득력 있… https://t.co/Z8W0n8FjZu