당신은 러다이트인가?
Source: Dev.to
서문
불쾌한 부분을 바로 해결해 보자. 현재 기술 생태계에 떠도는 단어가 있다: slop. 이는 대형 언어 모델이 생성하는 평범하고 저노력 콘텐츠의 홍수를 묘사하는 데 쓰인다. 사람들은 일반적인 LinkedIn 게시물이나 허구의 기사를 보고 비웃는다. 그들은 이를 slop이라 부른다.
나는 다른 관점을 가지고 있다.
그것은 slop이 아니라 shit이다. 그리고 곧 무의미해질 것이다.
구분이 중요하다. “Slop”은 기계의 부산물을 의미하고, “Shit”은 기준의 실패를 의미한다. 우리는 이미 이런 상황을 겪은 바 있다.
런던, 1894
도시는 물에 빠지고 있다. 데이터가 아니라, 말똥 때문에.
이것이 대말똥 위기이다. 1900년까지 런던에는 11,000대가 넘는 한솜 택시와 수천 대의 말이 끄는 버스가 있었으며, 각각 하루에 12마리의 말이 필요했다. 이는 매일 약 50,000마리의 말이 사람들을 이동시켰다는 뜻이다. 말 한 마리당 하루에 15–35 lb(약 6.8–15.9 kg)의 똥과 약 두 파인트(≈1 리터)의 소변을 배출한다. 뉴욕의 100,000마리 말은 매일 250만 lb(≈113톤)의 똥을 만들어냈다. 거리 곳곳이 그 똥으로 뒤덮였다. 썩어가는 똥 더미에서 파리가 번식해 장티푸스가 퍼졌다. 죽은 말은 부패가 진행된 뒤에 해부하기가 더 쉬워서 그대로 방치되었다.
- 《타임스》는 50년 안에 런던의 모든 거리가 9피트(≈2.7 m)의 똥에 묻힐 것이라고 예측했다.
- 1898년, 위기를 해결하기 위해 뉴욕에서 첫 번째 국제 도시계획 회의가 열렸다. 회의는 10일간 진행될 예정이었지만, 대표단은 3일 만에 해결책이 보이지 않는다며 회의를 중단했다.
그때 자동차가 등장했다. 1912년까지 말은 시대에 뒤처졌다. 문제는 더 빨리 삽질해서 해결된 것이 아니라, 패러다임 전환에 의해 무의미해졌다.
Source: https://energyhistory.yale.edu/harvesting-light-new-england-whaling-in-the-nineteenth-century/
고래잡이, 1850년대
1850년대에 미국의 포경선은 전 세계 해양을 장악했으며, 700척이 넘는 선박이 문명의 등불을 밝히는 석유를 얻기 위해 정어리 고래를 사냥했습니다. 1859년 최초의 상업 석유 시추에서 등유가 등장했을 때 이미 산업은 고래 개체 수 감소와 비용 상승으로 인해 압박을 받고 있었습니다. 10년 안에 등유는 고래 기름을 경제적으로 무의미하게 만들었습니다. 사냥에 일생을 바친 포경선 선원들은 산업 전체가 사라지는 모습을 지켜보았는데, 이는 누군가 포경을 금지했기 때문이 아니라 더 나은 대안이 등장했기 때문이었습니다.
우리는 현재 디지털 세계의 1894년 런던에 서 있습니다. 검색 결과와 소셜 피드를 가득 메우는 AI‑생성 텍스트의 더미를 바라보고 코를 찡그리고 있습니다. 하지만 해결책이 말을(또는 LLM)를 금지하는 것이라고 생각한다면, 눈앞을 지나가는 자동차를 놓치고 있는 겁니다.
문제는 “로봇이 이것을 썼나요?”가 아닙니다.
문제는 “그것이 좋은가?”입니다.
정당한 불만
콘텐츠 제작에서 생성 AI에 대한 현재 논쟁은 서로 외치는 두 진영에 의해 장악되고 있습니다. 비판자를 일축하기 전에 중요한 점을 인정해야 합니다: 그들 중 일부는 일리가 있습니다.
- 예술가, 작가, 그리고 창작자들은 자신의 작품이 허가, 보상, 혹은 크레딧 없이 인터넷에서 수집되어 학습 데이터셋에 사용되는 것을 목격했습니다. 이는 편집증이 아니라 문서화된 사실입니다.
- Stable Diffusion은 저작권이 있는 예술 작품, 개인 사진, 그리고 의료 이미지를 포함한 LAION‑5B 데이터셋을 기반으로 학습되었습니다.
- 대형 언어 모델은 창작자의 동의 없이 책, 기사, 그리고 코드 저장소를 학습에 사용했습니다.
분노는 정당합니다. 독특한 예술적 스타일을 개발하는 데 수년을 투자했는데, 누군가가 키보드만 있으면 “[당신의 이름] 스타일”로 AI가 생성하는 모습을 보면, 그 좌절감은 비이성적이지 않습니다. AI와 관련된 윤리적 딜레마 교육은 실제이며 아직 해결되지 않았습니다.
하지만 여기서 저는 순수주의자들과 입장을 달리합니다.
요정은 병에 다시 들어가지 않는다
우리는 여기까지 온 과정의 윤리를 논쟁할 수 있습니다. 더 나은 라이선스, 보상 체계, 그리고 동의 메커니즘을 옹호할 수 있습니다. 그래야 합니다. 하지만 기술은 이미 존재합니다. 모델은 학습되었습니다. 생성 AI를 “발명 취소”하라고 요구하는 것은 인쇄술이 서기를 일자리에서 내쫓았다고 해서 인쇄술을 발명 취소하라고 요구하는 것과 같습니다.
저는 엔지니어와 작가들이 가슴을 펴고 “절대” AI를 사용하지 않겠다고 선언하는 모습을 봅니다. 그들은 비효율성을 명예의 배지처럼 착용합니다. 빈 페이지와의 싸움을 종교적 의식으로 여깁니다.
(“인간이 작성한” 코드를 디버깅하는 데 충분히 시간을 보냈기에 인간이 원천이라고 해서 품질이 보장되는 것은 아니라는 것을 압니다.)
핵심 질문은 AI 학습이 윤리적이었는가가 아니라, 지금 우리가 무엇을 하느냐입니다. 답은 기술이 존재하지 않는 척하는 것이 아니라, 책임감 있게 사용하고, 더 공정한 시스템을 옹호하며, 실제로 중요한 것—출력의 품질—에 집중하는 것입니다.
이것이 AI 회피 현상입니다. 이는 출력 품질이 아니라 출처에 대한 인식에 기반한 심리적 장벽이며, 이제 서서히 무너지기 시작하고 있습니다.
The Cracks
The average human output is mediocre
나는 엔지니어를 채용하는 사람으로서, 그리고 문서를 읽는 사람으로서 이렇게 말한다. 대부분의 인간이 만든 콘텐츠는 최선의 경우 기능적일 뿐이며, 최악의 경우는 일관성이 없다. 우리는 인간의 창의성을 낭만화하지만, 인터넷을 뒤덮는 인간이 만든 방대한 잡음은 편리하게 잊어버린다.
Users don’t actually hate AI content
정통파는 사용자가 AI 콘텐츠를 싫어한다는 주장을 한다. 데이터는 그와 반대된다. AI 콘텐츠에 대한 청중 인식 연구는 흥미로운 모순을 보여준다: 사용자는 인간이 만든 콘텐츠를 원한다고 주장하지만, 출처를 알리지 않은 상태에서 고품질 AI 보조 콘텐츠를 제시받으면 긍정적으로 반응한다.
논쟁은 계속되지만, 패턴은 명확하다: 기술 변화는 옛 위기를 무의미하게 만든다. 문제는 말을 금지하는 것이 아니라, 자동차를 책임감 있게 탈 수 있게 배우는 것이다.
그들은 그것과 상호작용한다.
실제로, 연구에 따르면 생성 AI 도구가 인간이 만든 콘텐츠와 유사한 수준의 참여도를 달성할 수 있다. 기계는 공감할 수 있는 작업을 생산할 수 있다.
그래서 사용자가 콘텐츠를 즐기고, 배우며, 상호작용한다면… “영혼”은 중요한가?
복잡한 그래프 데이터베이스 쿼리를 완벽히 설명하는 문서 페이지를 읽는다면, 저자가 작성하면서 울었는지 여부는 상관없다. “인간적인 경험”이 있었는지도 중요하지 않다. 중요한 것은 그것이 작동한다는 점이다.
반 AI 논증의 균열은 유용성이 부정할 수 없기 때문에 점점 넓어지고 있다.
우리는 변화를 목격하고 있다. AI가 콘텐츠 품질에 미치는 영향은 하향 나선이 아니다. 이는 분기점이다:
- AI를 나태하게 사용해 “쓰레기”(비료)를 생산하는 경우.
- AI를 현명하게 사용해 작업을 고양시키는 경우(자동차).
“AI 혐오”는 실제로 존재하지만, 그것은 취약하다. 사용자가 콘텐츠가 AI‑생성임을 알고 있을 때만 작동한다. 이는 편견일 뿐, 품질 평가가 아니다. 사실적인 AI 콘텐츠조차도 AI라는 라벨 때문에 부정확하게 인식된다 — 이 연구를 참고하라.
이것은 지속 가능한 입장이 아니다. 방법이 마음에 들지 않는다며 결과 자체를 싫어할 수는 없다. 그것은 이데올로지이며, 엔지니어링이 아니다.
The Deeper Truth
빌더들이 실제로 이걸 어떻게 사용하는지 이야기해 보겠습니다.
저는 소프트웨어 엔지니어입니다. 시스템을 구축합니다. 콘텐츠 제작을 볼 때, 신성한 영감의 마법 같은 과정을 보지 못합니다. 파이프라인을 봅니다:
- 아이디어 구상 (입력)
- 초안 작성 (처리)
- 다듬기 (최적화)
- 출판 (배포)
반 AI 진영은 GenAI가 전체 파이프라인에서 인간을 대체한다고 생각합니다. “블로그 글을 써줘” 라고 입력하고 바로 출판하는 세상을 상상하죠. 그것이 바로 “shit” 티어—즉, 퇴비 수준입니다.
더 깊은 진실은 AI가 아키텍트에게 힘을 배가시키는 도구라는 점입니다.
- AI를 글쓰기 도구로 사용합니다.
- 코딩에도 사용합니다.
하지만 그것이 전부를 주도하게 두지는 않습니다.
LLM을 주니어 엔지니어처럼 대합니다—매우 빠르고, 매우 잘 읽히며, 약간은 환각적입니다. 사양을 주면 초안을 생성합니다. 그때부터 작업이 시작됩니다:
- 그것을 찢어냅니다.
- 주장을 재구성합니다.
- 뉘앙스를 삽입합니다.
- 사실을 검증합니다.
- 제가 가진 구체적이고 축적된 경험을 그 구조에 입힙니다.
이는 Hybrid Strategy이며 앞으로 나아갈 유일한 길입니다.
이렇게 작업하면 “속임수”를 쓰는 것이 아닙니다. 더 높은 추상화 수준에서 작업하는 것입니다. 이제 구문 오류나 작가의 블록에 얽매이지 않고 논리와 메시지에 집중합니다.
소유권은 문자 입력에서 오는 것이 아니라 비전에서 옵니다.
- 마이크로서비스 시스템을 설계하고 HTTP 요청을 처리하는 라이브러리를 사용한다면, 시스템을 제가 만든 것이 맞지 않나요?
- Copilot을 이용해 React 컴포넌트의 보일러플레이트를 생성한다면, 그 애플리케이션은 제 것이 아닌가요?
콘텐츠도 마찬가지입니다.
이 진실을 받아들이는 창작자들은 놀라운 사실을 발견합니다: 그들의 “목소리”를 잃지 않는다는 것입니다. 오히려 찾게 됩니다. 빈 페이지의 고된 작업을 벗어나 고부가가치 작업에 에너지를 쏟습니다. 그들은 manual labour에 대한 과다 지출을 멈추고 전략에 투자하고 있습니다.
“품질”의 정의가 변하고 있습니다. 이제 “사람이 썼는가?”가 아니라 맥락적 적합성과 이해의 깊이가 기준입니다 — 이 분석을 참고하세요.
일반적인 잡담을 인간이 쓰는 것이, 목표 지향적인 솔루션을 AI가 쓰는 것보다 더 나쁩니다.
소프트웨어에서의 “신‑에이전트” 신화—하나의 AI가 모든 일을 해낸다는 생각—은 무너지고 있습니다. 우리는 전문화된 도구로 이동하고 있습니다. 콘텐츠도 마찬가지로 “AI가 모든 것을 쓴다”에서 “AI가 전문가를 보강한다”로 변화하고 있습니다.
Implications
그렇다면, 똥이 쌓이면 어떻게 될까?
우리는 포화 단계에 진입하고 있다. 부인할 수 없는 사실은 텍스트 생성 비용이 거의 제로에 가까워졌으며, 그 결과 콘텐츠가 홍수처럼 쏟아질 것이라는 점이다.
이때 루드라이트(기술 회의론자)들이 공포에 빠진다. 그들은 양을 보고 모든 콘텐츠의 가치가 제로가 된다고 가정한다. 그들은 틀렸다.
공급이 무한해지면, 큐레이션이 유일한 자산이 된다.
신뢰가 통화가 된다.
내가 시간당 100개의 기사를 생성할 수 있다면, 사람들은 기사 자체에 관심을 두지 않는다. 어떤 것이 옳은가에 관심을 가진다.
이는 창작자의 역할이 변한다는 의미다. 이제 당신은 단순한 작가가 아니라:
- 검증자
- 트렌드 메이커
- 진리의 원천
생성 AI 윤리와 관련된 가장 큰 우려사항—표절, 편향, 정확성—은 당신의 경쟁력이 된다. 만약 당신이 똥을 걸러내고 금을 찾아낼 수 있다면, 승자는 바로 당신이다.
기업 입장에서는 이것이 AI 도입이 선택이 아니라 필수라는 의미다. Gartner는 2026년까지 80 %의 기업이 GenAI를 사용할 것이라고 예측한다. “슬롭”을 생성하기 위해 AI를 사용하는 기업은 실패하고, 전문가가 더 빠르게 움직일 수 있도록 AI를 활용하는 기업이 시장을 장악한다.
새로운 표준이 등장할 것이다. 자동차가 교통법규와 포장된 도로를 필요로 했듯, AI‑콘텐츠 시대에도 검증 프로토콜이 필요하다. 우리는 인간 감독을 증명하기 위한 콘텐츠의 암호 서명이 보편화되는 모습을 볼 가능성이 크다(인간이 만든 것이 아니라 인간이 감독했다는 증명).
AI가 글쓰기 품질 인식에 미치는 영향은 안정화될 것이다.
우리는 “AI인가?” 라는 질문을 멈추고 “정확한가?” 라는 질문을 할 것이다.
이는 순수주의자들에게 가혹한 진실이다. 시장은 효용성을 기준으로 해결한다. AI 에이전트가 3초 만에 내가 원하는 답을 제공하고, 인간 작가가 그 답을 2,000단어에 달하는 “감성적인” 할머니 레시피 이야기로 파묻어버린다면, AI가 승리한다.
항상 그렇다.
Source:
결론
저는 오랫동안 소프트웨어를 만들어 왔습니다. 프레임워크가 떠오르고 사라지는 모습을 보았고, 패러다임이 변하는 것도 목격했습니다.
패턴은 언제나 같습니다.
- 부정
- 분노
- 수용
AI의 “영혼 없음”을 외치는 사람들은 1894년 런던 한복판에서 말에게 소리를 지르는 것과 같습니다. 그들은 문제에 무릎까지 빠져 해결책을 보려 하지 않습니다.
당신은 러다이트가 될 수 있습니다. 도구를 손대지 않겠다고 거부할 수 있습니다. 수작업에 자부심을 가질 수도 있습니다.
또는 세상이 변했음을 인정할 수도 있습니다.
비료 문제는 과거로 돌아가서가 아니라 앞으로 나아가면서 해결되었습니다.
“오물”은 씻겨 나가고, “똥”은 무시될 것입니다.
남는 것은 차를 운전하는 법을 배운 건축가들의 작업이 될 것입니다.
그럼 이제 실례하겠습니다. 처리해야 할 작업이 남아 있습니다. 저는 기계에게 보일러플레이트 작업을 맡기고 실제 일을 진행하려 합니다.
원문은 tyingshoelaces.com 에서 처음 게시되었습니다.