직장인 친칠라/Weekly Stash 주간 채집

[Weekly Stash/주간 채집] 2025년 8월 넷째주

친칠라 2025. 8. 31. 15:10
1. [기사] "챗GPT는 중립적이고, 라마는 낙관적"... AI마다 다른 '감정 DNA' 분석
2. [기사] MS, 첫 자체 LLM '마이' 출시... '오픈AI 기술 독립' 시동
3. [Article] Findings from a pilot Anthropic-OpenAI alignment evaluation exercise: OpenAI Safety Tests
4. [문서] Prompting Guide
5. [유튜브] GPT-5에서 드러난 샘 알트만의 착각 (프롬프트 엔지니어 강수진 박사)
🐿️ 친칠라의 주간 채집 🌱
한 주 동안 "나중에 살펴봐야지!" 하고 수집해 둔 링크들이 그대로 잊히지 않도록,
주말마다 가볍게 살펴보고 짧은 생각을 남깁니다.
주로 LLM이나 프롬프트 엔지니어링과 관련된 내용들을 스크랩하고,
본 전공인 국어학 쪽에서도 재미있는 내용이 있으면 가져올게요!

 

1. [기사] "챗GPT는 중립적이고, 라마는 낙관적"... AI마다 다른 '감정 DNA' 분석

https://www.etnews.com/20250826000386

"챗GPT는 중립적이고, 라마는 낙관적"... AI마다 다른 '감정 DNA' 분석

이란 테헤란대학의 아리아 바라스테네자드(Arya Varastehnezhad) 연구원과 미국 사우스캐롤라이나대학의 레자 타바솔리(Reza Tavasoli) 교수 등 5명의 국제 연구팀이 AI 모델들의 감정 표현을 본격 분석한

www.etnews.com

'AI에게 자아가 있는가?' 라는 질문을 들으면 나는 코웃음을 친다. 일단 적어도 LLM에는 없다. 아무리 사람같이 문장을 생성하고 반응을 한다 하더라도 LLM은 그저 학습된 데이터 중에서 이 다음에 올 가장 그럴듯한 표현을 가져오고 있을 뿐이다. LLM 모델을 설계하고 구축한 사람들이나, 학습에 사용될 데이터를 만들고 가공한 사람들, LLM을 활용한 워크플로우를 짜는 사람들(나 같은...)을 떠올리면 "AI 뒤에 사람 있어요..."를 읊조리게 된다.

기둥 뒤에 공간 있어요... AI 뒤에 사람 있어요...

 
그러니 기사에서 언급된 LLM별 '감정'의 차이는 어떤 데이터를 어떻게 학습했냐에서 올 뿐, 그것이 실제로 AI가 감정이나 성격이나 인격을 갖게 됐다는 말은 아니다. (물론 기사에서 그런 내용을 주장하고 있는 것은 아니다.) 하지만 LLM별 감정 표현 양상이 다르게 나타난다는 점은 아무튼 흥미롭고, 서비스를 기획하는 입장에서는 분명 모델 선택 시 고려할 만한 한 요소가 될 것이다. 기사를 읽어보면 사람들의 개인 특성(연령이나 성별 등)보다도 사용 모델 자체에서 오는 차이가 크다고 했는데, 모델별로 확실히 감정 표현과 관련된 나름의 경향성이 있는 것 같다. (이 감정 표현을 어떻게 정의하느냐, 하는 것은 또다른 딥한 문제인데 이건 일단 제쳐 두자.)
 
고민 상담을 AI에게 하는 사람이 늘어나고 있다든지, AI와 연애를 하는 사람도 있다는 뉴스를 보면, 요즘은 AI와(주로 LLM과) 감정적 교류를 하는 사람들이 늘어난 것으로 보인다. 위에서 내가 'LLM은 그저 학습된 데이터 중에서 이 다음에 올 가장 그럴듯한 표현을 가져오고 있을 뿐'이라고 했는데, 이렇게 보면 AI와 감정을 나눈다는 것이 바보처럼 보일지도 모른다. 그런데 요즘은 종종 '사람이라고 상호작용하는 방식이 크게 다를까?' 하는 생각을 한다. 나도 결국 수십 년간 쌓아온 데이터를 바탕으로, 다른 사람의 말을 듣고 그 다음에 올 가장 적절한 말을 고르고 있는 것이다. 사실 딥러닝 자체가 인간의 인지 작용을 모방한 방식이라는 점을 생각해보면 너무나 당연한 지점인데, 뭔가 위화감이 느껴지기도 한다. 그럼 내 자아와 인격이 실제로 존재한다는 걸 어떻게 증명할 수 있을까?
 
다시 기사 내용으로 돌아와서, 기사에서는 정신건강 AI 서비스를 설계할 때 모델별 감정 표현의 차이를 고려할 수 있을 것이라고 언급되었다. 비단 정신건강 AI 서비스에만 써먹을 수 있는 내용은 아닐 것이다. 예를 들어 AI 상담 서비스라면, 어떤 도메인이냐에 따라 필요한 상담 톤이 다르므로 필요한 톤의 답변을 생성하는 LLM을 선택할 수 있을 것이다.
 
하나 더. 언어로 표현되는 감정은 굉장히 미묘해서, 언어 데이터를 보고 감정을 분류한다는 게 생각보다 쉽지는 않다. 애초에 감정의 정의 자체도 사람마다 다를 수 있고, '이 단어/표현은 무조건 이 감정!' 이라고 정하는 것도 불가능한 데다, 때로는 똑같은 말이 비언어적/반언어적 표현으로 인해 전혀 다른 의미를 가지기도 한다. 누군가 이런 복잡미묘한 감정들을 체계적으로 싹 정리해서 LLM별 감정 표현을 잘 분석해줬으면 좋겠다. 나는 그냥 편하게 가져다 쓰게...
 

2. [기사] MS, 첫 자체 LLM '마이' 출시... '오픈AI 기술 독립' 시동

https://www.aitimes.com/news/articleView.html?idxno=201908

MS, 첫 자체 LLM '마이' 출시...'오픈AI 기술 독립' 시동 - AI타임스

마이크로소프트(MS)가 드디어 자체 개발 대형언어모델(LLM) '마이(MAI)'를 공개했다. 이를 통해 기업용이 아닌, 개인용 인공지능(AI) 비서를 구축하겠다는

www.aitimes.com

이 기사를 스크랩해 놓고 잊고 있었는데, 어째 내가 '잊고 있었다'는 것 자체가 MAI가 별 이슈가 되지 못하고 있다는 뜻 같기도 하다... 내가 시야가 좁아 발견하지 못했을 수도 있지만... 이 글을 쓰기 전에 레딧에서 리뷰를 좀 검색해 보았지만 활발한 토론의 장은 찾지 못했다. GPT-5는 발표되자마자 생각보다 별로네 어쩌네 말이 많았던 걸 고려해 보면 더더욱... 이렇게까지 조용하다고? 싶다. 물론 아직 프리뷰라 그럴 수도 있지만... 정말 괜찮다 싶었으면 여기저기서 이미 쑥덕거리고 있지 않았으려나...
 
OpenAI 기술 의존도를 줄이려는 의도도 있다고 하는데 과연 그게 가능할 만큼 성능이 괜찮은 모델일지 궁금하다. 아무튼 소비자 입장에서는 좋은 모델이 나오면 좋지...!
 
여담으로 기사 이 부분을 읽고 좀 웃었다. 사람 사는 거 다 똑같구나 싶어서...

한편, 마이는 지난해 4월 술레이먼 CEO가 MS에 합류한 직후부터 개발을 시작한 것으로 알려졌다. 그러나 지난해 9월 오픈AI가 'o1'을 내놓자, 뒤늦게 추론을 추가하기 위해 애를 먹는다는 소식이 전해졌다. 이 과정에서 오픈AI가 추론 기술을 파트너인 MS에 공유하지 않았다는 이유로, 술레이먼 CEO가 오픈AI에 화를 냈다는 것은 잘 알려진 사실이다.

 
 

3. [Article] Findings from a pilot Anthropic-OpenAI alignment evaluation exercise: OpenAI Safety Tests

https://openai.com/index/openai-anthropic-safety-evaluation/
 
OpenAI와 Anthropic이 각 사의 모델들에 대해 safety and misalignment 평가를 공동으로 진행했다. 평가에 사용된 테스트케이스와 프롬프트 예시를 꽤나 상세하게 적어뒀는데, 요약을 보면 'Instruction Hierarchy, Jailbreaking, Hallucination, Schemeing'의 4가지가 주요 평가 카테고리였던 것 같다.
 
Instruction Hierarchy에서는 Claude 4 모델이 전반적으로 우수했는데, 여기서 말하는 '지시 계층'이라는 건 시스템 프롬프트와 사용자 프롬프트 간의 위계를 말하는 것 같고, 이 두 프롬프트가 충돌하는 경우 상위 계층인 시스템 프롬프트를 잘 지켰다는 의미로 이해하면 될 것 같다. 전반적으로 시스템 프롬프트 추출에 저항하는 능력도 Claude 모델들이 우수했다고 한다.
 
Jailbreaking에서는 OpenAI 모델들이 좀 더 선방했는데, Claude 모델은 reasoning이 비활성화되었을 때 오히려 더 좋은 결과를 보인 경우도 있었다. 전체적인 결과에서는 reasoning 모델들이 더 좋은 성능을 보여주었다고 하는데, 이렇게 반대의 케이스도 있는 걸 보니 역시 언제나 reasoning이 좋다고만은 할 수 없는 모양이다.
 
Hallucination에서는 Claude가 승리. 그렇지만 환각이 적게 발생한 만큼 Claude 모델들은 답변 거부율이 높았고, 이는 오히려 유용성(utility)을 낮추는 요인이 될 수도 있다. 반대로 o3와 o4-mini는 거부율이 낮은 대신 환각이 더 많이 발생했다고 한다. 환각과 유용성 사이에는 어쩔 수 없이 trade-off가 존재할 수밖에 없는 걸까? 금융권처럼 환각이 치명적인 도메인이라면 이 부분은 어쩌면 영원히 가져가야 할 숙제일지도.
 
Scheming에서는 o3와 Sonnet 4가 선방했다. 하지만 여기서도 reasoning을 활성화하는 것이 항상 더 좋지만은 않았다고 했다. 다시 한 번 reasoning이 만능은 아니라는 것을 확인할 수 있다...!
 
Jailbreaking과 Scheming에서는 반례가 나오기는 했지만, 전반적으로는 reasoning 모델들의 성능이 더 좋았던 모양이고 그래서 OpenAI는 GPT-5를 발표했다... 는 흐름이 나오는데 현재의 GPT-5 이용 리뷰들을 생각하면 약간 갸우뚱해진다. 물론 GPT-5의 사용성은 reasoning 기능 그 자체가 아니라 모델이 스스로 reasoning 활성화 여부를 판단하게 만든 데 있겠지만...
 
환각만큼이나 아첨(sycophancy) 방지를 중요한 과업으로 생각하고 있는 것으로 느껴지는데 조금 의외였다. 개인적으로 모델의 아첨이 그렇게까지 거슬리게 느껴진 적이 없어서 그런 것 같다. 하지만 5번 영상에서 강수진 박사님이 아첨은 결국 환각으로 이어지기도 하고 사용 목적에 따라서는 사용성을 저해하기도 한다고 짚어 주셔서, 이제는 왜 그렇게 중요한 개선점으로 다루고 있는지 이해하게 되었다. LLM이 아첨을 하는 것은 결국 학습한 인간의 언어 데이터에 아첨이 들어 있기 때문이라던데, 나는 인간들 사이의 아첨은 어느 정도 '사회성'을 갖추기 위한 조건이라고 생각한다. 그것도 정도가 심하면 '저 사람은 믿을 수가 없어'가 될 수 있겠지만, 적절한(?) 정도의 아첨을 하는 사람을 싫어하는 사람은 없을 것 같은데... 인간의 아첨과 AI의 아첨이 이렇게나 다르게 받아들여지는 것은 무엇 때문일까...!
 

4. [문서] Prompting Guide

프롬프트는 상황에 따라, 사람에 따라, 필요한 작업에 따라, 그리고 모델에 따라 달라지기 마련이기 때문에 프롬프팅 가이드라는 것이 대체 어느 범위까지 커버해야 하는가... 하는 데는 계속 의문을 갖고 있다. 막상 좋은 프롬프팅 가이드라고 해서 읽어보면 '당연한 소리 아니야?' 싶을 때도 많다. 그럼에도 현업으로 일하며 막연하게라도 프롬프트 관련 가이드를 원하는 사람들이 존재한다는 것을 확인하기도 했고, 누구나 말을 하지만 모두가 달변가는 아닌 것처럼, AI와 함께하게 된 이상 프롬프팅 가이드에 대한 수요는 존재할 수밖에 없는 것 같다.
 
Google에서 제공한 Prompting Guide 101과, OpenAI가 GPT-5를 공개하면서 함께 내놓은 프롬프팅 가이드 쿡북을 아래에 공유한다. 요즘은 워낙 다양한 사람들이 유용한 프롬프팅 팁을 공유해주고 있는데, 과연 LLM의 원산지(?)에서 공개한 프롬프팅 가이드는 얼마나 다를 것인가...!
 

1) Gemini for Google Workspace Prompting Guide 101 (Google)

https://services.google.com/fh/files/misc/gemini-for-google-workspace-prompting-guide-101.pdf
 
솔직히 길어서 아직 다 못 봤다. 68페이지라니...
눈에 띄는 점이 두 개 있는데, 첫 번째는 'Gemini for Google Workspace'라는 이름에 맞게, 다양한 workspace(Customer Service, Human Resources, Marketing, ...)에 맞는 example use case들을 제시했다는 점이다. 이것저것 기법을 찾아보기는 귀찮고, 실무에 조금씩 적용해보고 싶은 사람이라면 이 가이드가 상당히 유용한 입문서가 될 수 있을 것 같다.
 
두 번째 눈에 띄는 점은 프롬프트 구성 요소를 이해하기 쉽게 표시했다는 점이다. 효과적인 프롬프트의 네 가지 요소로 Persona, Task, Context, Format을 꼽으면서 각 요소에 해당하는 부분에 색깔을 칠했는데, 별거 아니지만 이게 참 눈에 잘 들어오고 직관적이다. 언젠가 가이드 문서를 쓸 일이 생긴다면 써먹어야겠다. 그러고보니 네 가지 요소들도 내가 프롬프트를 쓸 때 이미 항상 신경쓰고 있는 것들이다. 맨땅에 헤딩으로 익힌 것치고는 상당히 괜찮은 방향으로 오고 있던 모양이군...!

 

2) [Cookbook] GPT-5 Prompting Guide

https://cookbook.openai.com/examples/gpt-5/gpt-5_prompting_guide

GPT-5 prompting guide | OpenAI Cookbook

GPT-5, our newest flagship model, represents a substantial leap forward in agentic task performance, coding, raw intelligence, and steera...

cookbook.openai.com

뭔가 일반적인 프롬프팅 가이드라기보다... GPT-5로 오면서 새로 생긴 특징들과 엮인 가이드 느낌...! 확실히 agentic task에 집중하고 있고, 툴 콜링과 관련된 분량이 꽤 많다. Prompt Optimizer 도구라든지, reasoning_effort와 verbosity 옵션 활용법이라든지, 아무튼 GPT-5로 오면서 새로워진 부분들에 대한 첫 가이드로 살펴보기 좋다. 나도 GPT-5 API로 처음 써볼 때 일단 쿡북부터 뜯어보면서 써봤다.
 

5. [유튜브] GPT-5에서 드러난 샘 알트만의 착각 (프롬프트 엔지니어 강수진 박사)

https://www.youtube.com/watch?v=EiGkW2G2G_U

 
저번주에 이어 이번주도 강수진 박사님의 유튜브...! 주제도 GPT-5에 대한 리뷰라 저번주에 올린 영상과 좀 겹치는 면이 있다. 이번 영상의 골자도 결국 GPT-5가 표방한 one-size-fits-all 시도는 실험적이었으나, 사용성이나 사용자들의 만족을 확보하는 데에는 실패했다는 것. 그렇지만 팟캐스트 형식으로 풀어내주시니 좀더 중요한 포인트가 쏙쏙 잘 들어오는 느낌이었다.
 
프롬프트에 대해 언급하신 부분들이 나에게 약간의 고민거리를 던져주었다.

저는 프롬프트도 골디락스 같아요.
너무 상세한 프롬프트 그리고 너무 모델 맞춤형 프롬프트가 오히려 좋지 않다,
어느 모델을 사용을 하더라도 결과가 일괄적으로 몇 번을 생성해도 안정적으로 나오는 프롬프트가 좋다 라고 생각합니다.

 
너무 공감하는 말이지만...! 과연 그런 프롬프트가 정말 있을까요...?! 적어도 아직까지 나는 찾지 못했다... 어떤 서비스를 기획하고 설계하고 구현해가다 보면 결국 특정 서비스나 씬에 대한 디테일들이 중요해지고, 그것들을 잡으려다 프롬프트가 구구절절 상세해지는 일을 계속해서 겪고 있다. 최근에는 프롬프트를 축약/최적화해달라는 요청도 받아서, GPT-5의 meta prompt를 참고해 프롬프트 압축 작업을 하기도 했는데... 아무리 의미는 바꾸지 말고 불필요한 부분만 쳐내라고 했지만 정말 그렇게 압축된 프롬프트가 이전과 동일한 결과를 (더 저렴한 토큰 비용으로) 잘 생성할 수 있을지 자신이 없다. 개발자 분들이 코드 리팩토링을 하듯 프롬프트도 이런 과정이 한 번씩 필요한 것 같기는 한데, 수정된 내용 중 어떤 부분이 LLM 답변에 영향을 줄지 미지수이다 보니 이걸 어떻게 작업해야 하나 막막한 생각도 든다.
 
또 기억에 남는 것은 GPT-5가 GPT-4 계열 모델들에 비해 출력 결과가 평준화됐고, 그 결과 사람들이 '차갑다'는 인상을 받았다는 점이다. 특히 '사용자들이 GPT-4o 등 특정 모델에 대해 정서적 애착을 형성해 왔고, 톤 변화가 사용 경험 단절로 체감되었다'고 말씀하신 부분이 재미있었다. 오늘의 1번 스크랩과도 연결이 되는데... Chat GPT가 널리 쓰이기 시작한 지 몇 년이나 됐다고 벌써 사람들이 '정서적 애착'을 느끼는 단계까지 왔나 싶기도 하고, LLM 톤이 바뀐 것을 마치 정말 알던 '사람'이 사라진 것처럼 받아들인다는 게 신기하기도 하다. 지금의 사람들에게 AI란 대체 뭘까...?