본문 바로가기
직장인 친칠라/Weekly Stash 주간 채집

[Weekly Stash/주간 채집] 2025년 11월 셋째주

by 친칠라 2025. 11. 23.
1. [블로그] 프롬프트만으로 Gemini 3의 '자율성' 길들이기
2. [유튜브] AI-Ready Data란 무엇인가? [1분테크438@토크아이티, 김선영 그룹장 / 엔코아]
3. [기사] 갤럭시XR 써보니…‘보는 맛’은 합격, ‘노는 맛’은 예고편 [이동수는 이동중]
4. [기사] Chatbots may make learning feel easy — but it’s superficial
5. [Article] New OpenAI ChatGPT 6 Early Testing : Willow vs Gemini 3.0
🐿️ 친칠라의 주간 채집 🌱
한 주 동안 "나중에 살펴봐야지!" 하고 수집해 둔 링크들이 그대로 잊히지 않도록,
주말마다 가볍게 살펴보고 짧은 생각을 남깁니다.
주로 LLM이나 프롬프트 엔지니어링과 관련된 내용들을 스크랩하고,
본 전공인 국어학 쪽에서도 재미있는 내용이 있으면 가져올게요!

1. [블로그] 프롬프트만으로 Gemini 3의 '자율성' 길들이기

프롬프트만으로 Gemini 3의 '자율성' 길들이기

 

프롬프트만으로 Gemini 3의 '자율성' 길들이기

Gemini 3으로 Github 프로젝트 1대1 과외 받기

velog.io

드디어! Gemini 3가 나왔다! 지금 프로젝트에서는 계속 gpt 시리즈로 실험을 하고 있기 때문에 다른 모델을 써볼 여력이 없었지만... 일단 여기저기 시끌시끌하게 올라오는 후기들을 읽어보고 있다.

 

요즘 공개되는 모델에서 빠질 수 없는 추론 모드와 에이전트 기능은 (당연히) 갖춘 듯한데, 이분의 글에 언급된 '자율성이 높다'는 표현이 재미있었다. 이 글에서는 Gemini 3가 실력은 좋은데 '내 말은 안 듣고 자기 스타일대로 일하는' 느낌이라며, Gemini 3의 자율성을 '야생적'이라고까지 표현했다. 글을 찬찬히 읽어 보니 이렇게 느껴지는 건 어쩌면 모델이 심층 추론을 더 잘 하게 되면서, 사용자의 지시를 그대로 따르기보다 더 효율적이고 효과적인 방법을 찾기 때문일 것 같기도 하다. 시스템 프롬프트에 이런 페르소나에 대한 내용이 있을지도 모르겠지만... 아무튼 이런 느낌이 반드시 직접적으로 부여된 페르소나나 톤 규칙이 아니라, 모델 자체의 강화된 특성에서 비롯될지도 모르겠다는 생각...!

 

이 글의 작성자는 Gemini 3의 자율성을 통제하기 위해 세 가지의 원칙을 세웠다. 첫째, 결과물에 대한 판단 기준을 제시할 것. 둘째, 필요할 때만 부정 명령을 활용하고, 보다 나은 답변을 위해서는 부정 명령의 대안으로 긍정 명령을 같이 사용할 것. 셋째, 여러 규칙 사이에서 모델이 특히 집중해야 할 규칙을 명시해 줌으로써, 규칙 사이에 차등을 줄 것. 결국 세 가지 원칙 모두, 지시하는 사람부터가 본인이 원하는 작업이 어떤 것인지, 그 작업을 수행하기 위해 지켜져야 할 규칙의 우선순위는 어떠한지를 명확히 알아야 설정할 수 있는 것들이다. 사실 우리는 프롬프트 엔지니어링 이전에 논리적인 글쓰기부터 다시 배워야 하는 게 아닐까.

 

2. [유튜브] AI-Ready Data란 무엇인가? [1분테크438@토크아이티, 김선영 그룹장 / 엔코아]

AI-Ready Data란 무엇인가? [1분테크438@토크아이티, 김선영 그룹장 / 엔코아] #shorts

 

요즘 프로젝트를 진행할수록 느끼는 것... 모든 성능 개선 시도의 종착점은 결국 데이터 정제이다! 쇼츠에서 언급된 대로, 식별 가능하고, 정제되고, 표준화된 데이터를 사용해야 AI도 제 성능을 보여준다! 하지만 언제나 현실 세계의 데이터란 엉망진창이기 때문에 이것을 완벽히 다듬기란 불가능에 가깝고, 거기에 들어가는 시간과 인력 리소스를 최대한 아끼면서도 좋은 데이터를 얻을 수 있는 방법을 강구해야만 한다. 원본 풀 영상은 아직 못 보고 쇼츠만 봤는데... 이것만으로도 너무 공감되는 내용이라 일단 기록해 둔다.

 

(참고 : 원본 영상)

 

3. [기사] 갤럭시XR 써보니…‘보는 맛’은 합격, ‘노는 맛’은 예고편 [이동수는 이동중]

갤럭시XR 써보니…‘보는 맛’은 합격, ‘노는 맛’은 예고편 [이동수는 이동중]

 

갤럭시XR 써보니…‘보는 맛’은 합격, ‘노는 맛’은 예고편 [이동수는 이동중]

모바일 기기 생태계 핵심 부상할 듯 비교 불가 몰입감…방구석 세계여행 전용 콘텐츠 부족 한계 분명하지만 안드로이드 생태계로 곧 극복 가능 야외 사용은 이른 감…시선 집중돼 ‘확장현실(XR

n.news.naver.com

모바일 기기로 XR을 경험하는 시대가 왔다. 삼성전자에서 출시한 헤드셋 형태의 '갤럭시 XR'을 기자 분이 직접 써보고 작성한 기사인데 중간중간 들어간 실제 사용 영상이 예전에 상상하던 사이버펑크 세계관 같기도 하고 재미있어 보인다. 아직 인식률 개선이나 콘텐츠 부족, 비싼 가격대 등 상용화까지 남은 과제들이 있다지만, 머지 않은 미래에 길거리에서도 갤럭시 XR이나 애플 비전 프로를 착용하고 걸어가는 사람들을 볼 수 있을 것 같다. '스몸비'처럼, 이런 사람들을 가리키는 용어도 생기지 않을까. 스마트폰과 달리 현실 공간도 볼 수 있으니까 오히려 더 안전하려나? 내가 이 기기에 익숙해질 날은 지금으로서는 도저히 상상되지 않지만, 지금까지 내가 거쳐 온 수많은 기술들이 그랬듯이 아마 생각보다 빠르게 내 생활에 스며들지도 모른다. 안전성이나 가격 문제가 해결된다면 교육 도메인에서 정말 꿀템으로 이용될지도...!

 

4. [기사] Chatbots may make learning feel easy — but it’s superficial

Chatbots may make learning feel easy — but it’s superficial

 

Chatbots may make learning feel easy — but it’s superficial

People who use search engines develop deeper knowledge and are more invested in what they learn than those relying on AI chatbots, a study reports.

www.sciencenews.org

종종 ChatGPT가 없던 시기에 학부/석사과정을 졸업한 내가 정말 승리자다! 하는 농담을 하곤 하는데, 그래 놓고 결국 웬만한 검색은 일단 gpt에 물어보게 된 지금 아주 찔리는 기사를 만났다. 챗봇을 통한 검색은 지식을 빨리 얻을 수 있는 방법이지만, 검색 엔진에서 정보를 찾는 전통적인 방식에 비해(사실 이 방식이 'traditional'이라고 불리는 것 자체가 재미있다) 얻게 되는 지식이 피상적이라는 것이다. 웹 검색을 제공하는 챗봇을 사용한다 하더라도 이는 마찬가지라고 한다.

 

그러니까 '지식'은 단순히 정보가 빨리 축적된다고 깊어지는 게 아니라, 그걸 받아들이는 사람이 스스로 쌓고 이해하고 생각해보는 과정이 있어야만 깊어진다는 것이다. 분명 몇 년 전만 해도 이런 이야기는 네이버나 나무위키에서 검색하지 말고 직접 문헌을 찾아보라는 충고에서나 나왔던 것 같은데. 이제는 LLM 챗봇에 물어보지 말고 검색 엔진으로 정보를 검색하라는 내용으로 언급되다니... 문자 메시지가 '아날로그' 감성으로 분류되는 걸 볼 때와 비슷한 감정이 느껴진다. 그리고 모든 정보를 손쉽게 gpt로 얻고 싶어하는 지금의 내 모습을 반성해 본다. 이래도 일단은 gpt에 물어보는 습관이 잘 고쳐지지는 않겠지만...

 

While LLMs can reduce the load of having to synthesize information for oneself, this ease comes at the cost of developing deeper knowledge on a topic.

 

5. [Article] New OpenAI ChatGPT 6 Early Testing : Willow vs Gemini 3.0

ChatGPT 6 Willow Model : The Future of Creative Coding & Design? - Geeky Gadgets

 

New OpenAI ChatGPT 6 Early Testing : Willow vs Gemini 3.0

Explore OpenAI's new ChatGPT 6 AI models, including Willow, optimized for UI/UX design and coding. Learn how they compare to Gemini 3.0!

www.geeky-gadgets.com

구글이 Gemini 3를 내놓았는데, 과연 OpenAI의 ChatGPT 6는 언제 공개될 것인가! 우선 Willow, Cedar, Oak, Birch라는 나무 이름 시리즈의 모델들에 대한 정보가 제한적으로나마 공개되었고, 이것들이 gpt-6 초기 테스트 모델이 아니겠느냐 하는 추측이 나오고 있는 것 같다. 일단 Willow를 the best coding model이라고 홍보하고 있는 모양인데, Willow 모델의 강점을 읽어보면 과연 이게 코딩 최적화 모델이 맞나 하는 의문이 조금 든다. (Specializes in creating artistic and organic UI designs, delivering intricate, visually stunning layouts that cater to creative projects.)

 

전체적으로 '진짜 사람 같은 AI'로 인식되기를 원했다는 인상을 받았다. 일단 전반적으로 'artistic', 'creative', 'aesthetics' 같은 단어들이 언급된 걸 보면 단순히 논리적인 작업 뿐 아니라 심미적 감각이 필요한 작업도 잘 한다는 걸 어필하고 싶은 것 같다. (특히 Willow, Cedar) 요즘은 디자인이나 영상 편집 같은 영역도 AI가 충분히 잘한다고는 하지만, 어쨌든 아직까지는 '심미안'은 다들 사람에게 있다고 믿(고 싶어하)는 것 같으니까. 그리고 Oak는 'data-driven design', Birch 'wireframing', 'prototyping workflows'에 특화되었다고 했는데, 이것들은 모두 단순 반복 작업이 아니라 여러 논리적인 단계들을 거쳐야만 완성되는 복합적인 작업이다. 그러니 많이 생각해야 하는 복잡한 작업도 사람처럼 잘 하는 AI Agent를 보여주고 싶은 것 같다는 생각이 든다.

 

아무튼 Gemini 3처럼 ChatGPT 6도 실제로 출시가 되어 봐야 확실히 어떤 모델인지 판단이 가능할 것이다. 모델 이름에 실제로 Willow, Cedar, Oak, Birch가 들어갈지 아니면 다른 이름으로 나올지 좀 궁금하다.