본문 바로가기
직장인 친칠라/Weekly Stash 주간 채집

[Weekly Stash/주간 채집] 2025년 10월 둘째주

by 친칠라 2025. 10. 12.
1. [Article] Vibe coding will destroy your codebase but, you're probably not doing it
2. [기사] AI는 법조문 생성 못 한다?… 같은 말 반복하는 법률 언어의 특성 때문 
3. [기사] 오픈AI '소라 2' 저작권 침해 논란…美영화협회, 즉각조치 요구 
🐿️ 친칠라의 주간 채집 🌱
한 주 동안 "나중에 살펴봐야지!" 하고 수집해 둔 링크들이 그대로 잊히지 않도록,
주말마다 가볍게 살펴보고 짧은 생각을 남깁니다.
주로 LLM이나 프롬프트 엔지니어링과 관련된 내용들을 스크랩하고,
본 전공인 국어학 쪽에서도 재미있는 내용이 있으면 가져올게요!

 

1. [Article] Vibe coding will destroy your codebase but, you're probably not doing it

https://www.adaptivealchemist.com/vibe-coding-will-destroy-your-codebase-but-youre-probably-not-doing-it/

 

Vibe coding will destroy your codebase but, you're probably not doing it

Everyone is calling AI code generation "vibe coding"—from harmless autocomplete to security nightmares. This confusion leads to wrong bets on tools and policies. Here's the matrix that separates hype from reality.

www.adaptivealchemist.com

흔히들 그냥 AI를 써서 코딩하면 '바이브 코딩'이라고 하는데, 이 글에서는 AI 코딩 생성이 모두 바이브 코딩은 아니라면서 보다 면밀한 기준을 제시했다. AI Autonomy를 x축, Human Rigor and Control을 Y축에 놓았을 때, 높은 자율성과 낮은 엄격함인 경우가 바로 바이브 코딩이라는 것이다. 이러한 바이브 코딩은 당연히 프로덕션 레벨에는 맞지 않는다. AI의 자율성이 높아질수록, 그 자율성의 이점을 개발의 성공으로 이어지게 하기 위해서는 그만큼 높은 엄격함과 통제가 필요하다는 것이 요지이다. 사실 당연한 얘기지만, AI를 활용한 코딩을 모두 '바이브 코딩'이라고 퉁쳐서 부르게 되면 간과하기 쉬운 부분이다. 분류 기준과 용어의 엄밀함이 가져다 주는 인사이트가 대개 이런 것 같다. 대단히 새롭거나 혁신적이지는 않지만, 무딘 칼로는 깨끗이 발라낼 수 없던 이슈를 깔끔하게 정리해볼 수 있게 해준다.

 

2. [기사] AI는 법조문 생성 못 한다?… 같은 말 반복하는 법률 언어의 특성 때문

https://www.etnews.com/20250929000303

 

AI는 법조문 생성 못 한다?… 같은 말 반복하는 법률 언어의 특성 때문

일본 와세다대학교 연구팀이 법률 문서와 일반 글, 그리고 AI가 쓴 글의 언어 특징을 비교했다. 해당 논문에 따르면, 이번 연구는 프랑스어, 영어, 독일어 등 여러 언어의 법률 문서를 분석했으며

www.etnews.com

언젠가 국문과 학부 수업에서, 법학과 교수들과 국문과 교수들이 법문 용어와 문장을 다듬는 공동 프로젝트 같은 걸 했다고 들은 기억이 있다. 정확히 어느 정도 규모의 프로젝트였는지, 성과를 거두기는 했는지 하는 부분은 기억나지 않지만 한국인이 한국어로 썼는데도 아무 한국인이나 이해할 수 없는 문장들이 있구나 하는 생각을 했던 건 기억난다. 기사에서는 챗GPT 같은 AI가 쓴 글은 법률 문서 특유의 패턴을 재현하지 못했는데, 이는 곧 AI 모델들이 법률 문서의 특성을 충분히 학습하지 못했기 때문이라고 했다. AI 모델 학습에 사용된 데이터에는 아무래도 일반적이고 범용적인 문서들이 더 많을 것이고, 법률과 같은 특정 도메인 특화 문서는 그만큼 많지 않을 테니 당연한 결과이다. 특정 도메인에 AI를 도입하고 싶으면 파인튜닝이든 뭐든 아무튼 도메인 특화 작업이 필요한 이유이기도 하고.

 

기사를 읽으며 '문서'라는 것의 본질에 대해 생각해보게 되었다. 일기든 기사든 법률 문서든, 사람들이 글을 쓰는 데에는 목적이 있고 예상 독자가 있으며 그에 따라 지켜야 할 작성법이 생겨나기도 한다. 법률 문서는 정밀해야 하기 때문에 다른 글에 비해 같은 말을 반복해야만 하듯이. 사람도 문서의 목적에 대한 이해가 부족하면 평소 읽던 글과 패턴이 딴판이니 이해하기 어려워지고, 비슷한 형식으로 작성을 하기 위해서는 훈련이 반드시 필요해진다. 매번 느끼지만 정말 AI를 잘 활용하기 위해서는 일단 내가 정확히 어떤 작업을 어떻게 해야 하는지부터 잘 알아야 하는 것 같다.

 

3. [기사] 오픈AI '소라 2' 저작권 침해 논란…美영화협회, 즉각조치 요구

https://www.etnews.com/20251008000007

 

오픈AI '소라 2' 저작권 침해 논란…美영화협회, 즉각조치 요구

미국영화협회(MPA)가 오픈AI의 동영상 생성형 AI 모델 '소라 2'의 저작권 침해 문제에 이의를 제기했다. 오픈AI가 저작권 침해 방지를 위해 도입한 '옵트아웃' 방식을 정면 반박하며 오픈AI에 즉각

www.etnews.com

역시나 피해갈 수 없는 저작권 문제! 오픈AI는 소라2를 출시하며 콘텐츠 저작자가 본인의 콘텐츠 사용 금지를 신청하는 '옵트아웃' 방식으로 저작권 이슈에 대처하려고 했지만, 미국영화협회는 "저작권 침해를 막을 책임은 저작권자가 아니라 오픈AI에 있다"며 옵트아웃 방식 자체가 저작권법에 위배된다고 지적한 상황이다. 범람하는 데이터의 늪에서 효율적인 비용으로 저작권 침해를 찾아갈 방법을 찾았다고 보아야 할지, 아니면 실질적으로는 저작권 침해의 책임을 저작자에게 떠넘기는 눈 가리고 아웅 식의 생색 내기라고 보아야 할지 그 선이 참 애매하다. 오픈AI의 주장처럼 이 방식에 대해 저작자들에게 충분한 사전 고지가 이루어졌는지 역시 따져봐야 할 또다른 문제이다.