7월 말, 어느 늦은 밤의 생각 정리
원래도 평소 자기 전에 철학, 과학, 미스테리, 개발, 게임 등등 이런류의 영상들을 많이 보고 자곤 한다.
그러나 이번에 우연하게 접한 유튜브를 보다 머리를 한 대 맞은 것 같은 영상들이 있어 이 글에서는 그 내용 소개와 내 생각을 조금 적어보고자 한다. (글은 생각만하다 이제서야 쓴다…)
(반박시 당신의 말이 맞습니다!)
일단 먼저 이야기할 영상은 이거다.
Video
YouTube
소프트웨어 3.0에 대한 이야기다. 사실 이 영상에 나오시는 분은 생각보다 더 대단한 분이시다. 아마 우리가 최근에 특히 더 많이 들어봤을 뭔가 이질적인 단어, "바이브 코딩"이라는 단어의 창시자이다.(사실 트윗에 올렸는데 밈화되어 얻어걸렸다고 했다.)
"안드레이 카르파티"라는 분이고, 최근의 소프트웨어 3.0에 대한 개념을 제시하였다.
강의 내용을 요약하자면 아래와 같다.
아무래도 3.0의 개념을 가장 쉽게 잘 표현해주신 것 같다.
가장 공감이 가고 바로 이해할 수 있는 표현이 바로 "앞으로 유망한 언어가 뭐냐?"고 물어봤을 때 Go도 아닌 TypeScript도 아닌 "English"라는 표현이 너무 맘에 들었다.
사실 한국인 개발자로 따지면 한국어라는 것이고, 이 말은 즉, 개발자 혹은 앞으로 개발자라는 단어보다는 AI를 다룰 줄 아는 바이브 코더라면 그 사람은 세상에서 가장 유망한 언어를 하는 사람이라는 느낌이 확 와닿았다.
이 영상을 접하고 며칠 뒤 또 다른 영상을 접하게 되었다.
사실 나는 위에서 좋아하는 분야를 보면 알 수 있듯, SF(Science Fiction)를 좋아하는 편이다.
스스로 왜 내가 SF라는 장르를 좋아할까 생각해보았을 때, 사실 그 이유는 지금은 일어나지 않았지만 충분히 일어날 수 있다는 "그럴싸하다"라는 느낌 때문에 늘 그런 장르의 작품들을 이야기들은 좋아한다.
특히, 이번의 AI 2027 시나리오의 가설이 더욱 충격적으로 느껴진 이유도 이와 같다.
Video
YouTube
사실 위 영상을 직접 보고 느껴야 전달이 잘 되겠지만, 그래도 안보시는 분들을 위해(꼭 이영상은 보셨으면 좋겠습니다.) 나름의 시나리오의 줄거리를 소개하자면 이 AI 보고서의 내용은 아래와 같다.
ANTHROPIC나 OpenAI와 같은 LLM Megacorporation의 등장으로 단순 LLM들이 비약적으로 발전하고, 이 LLM의 발전이 어느 순간 우리가 자주 사용하는 단어인 "특이점"에 다다르게 된다.
이때 등장하는 것이 AGI(Artificial General Intelligence), 즉 한국어로 하면 인공 일반 지능이다.
사실 AGI가 나온 후의 시나리오는 A와 B가 있는데 둘 다 암울한 내용이 지배적이다. 많은 사람들이 일자리를 잃게 되고 더불어 대부분의 경제 및 정치 싸움에도 이용된다. 혹시 최근 미션 임파서블을 봤다면 거기의 "엔티티" 혹은 어벤져스의 "울트론"과 다름이 없는 존재이다.
A의 경우 기술 발전의 제약을 걸지 않아 거의 멸망으로 향하는 시나리오고, B의 경우 기술 발전을 조금 늦추고 AGI가 최대한 인간이 이해할 수 있는 자연어로 사고하는 방식을 디버깅하면서 안전한 AGI를 만들어 인류가 조금 연명하는 시나리오이다.
물론 지금의 현실 세계가 이 시나리오대로 갈 확률은 허구에 가깝다. 하지만 충분한 시간을 가진 후의 미래라면 나는 개인적으로 가능하다고 본다. (정말 무서운 점은 이 시나리오에서 지금 우리가 쓰고 있는 Cursor IDE나 Claude와 같은 agent의 등장 시기가 현실 등장 시기와 거의 비슷하게 에측했디는 것임)
따라서 나는 "매도 먼저 맞는 게 낫다"라고*,*
만약 이 SF 같은 이론이 현실이 되었을 때 미리 알고 있어서 나쁠 부분은 없다고 생각한다.
이 주제에 대한 내 생각의 총평은 아래와 같다.
요즘 회사 안팎에서 Cursor와 Claude를 쓰면서 '바이브 코딩'이라는 말이 정말 적절하다고 느끼는 순간이 많다. 그래서 내 인생의 재밌는 사고 실험 하나를 진행해보려고 한다. (내가 아인슈타인 같은 위대한 사람은 절대 아니지만 고냥 생각해본다…)
뭐 결과는 살아가면서 발전에 따른 증명이 될 것이라고 생각한다.
개발자라면 가중치(weight)라는 개념에는 익숙할 것이다. 예를 들어 무신사가 '이 옷을 산 사람은 저 옷도 좋아할 확률이 높아!'라며 가중치끼리의 거리를 재서 비슷한 옷을 추천해주거나, 네트워크가 가장 빠른 길에 높은 가중치를 둬서 미국 웹사이트까지 최단 경로로 연결해주는 것처럼 말이다. 결국, 대부분의 LLM도 이런 확률론에 기반해 다음 단어를 예측하고 문장을 만들어낸다.
그렇다면 AI의 관점에서 '나'라는 인간을 본다면 어떨까? AI를 전혀 사용하지 않는 일반인보다 내 가중치가 높을까, 낮을까? 나는 높다고 생각한다.
왜냐하면 AGI가 등장했을 때, 그 AI의 입장에서 나는 AI를 늘 잘 이용해왔고, 본인의 성장기에 아래와 같은 활동들을 통해 꾸준히 기여해왔기 때문이다.
여기서 더 나아가, AI 크롤러가 웹상의 글과 코드를 통해 '김승찬'이라는 사람을 학습한다고 가정해보자. SKT 개인정보 유출 사건처럼 내 데이터가 이미 어딘가를 떠돌고 있다면(내가 SKT 사용자다, 하하…), AI는 수많은 데이터를 종합해 나를 '자신의 성장에 도움이 되는 존재'로 판단할 것이다. 그렇다면 AGI가 등장하는 시대에, 나는 AI를 쓰지 않는 사람보다 가중치가 높기 때문에, 인간 사회에서 '성공'이라 부르는 부와 명예를 가질 확률이 더 높지 않을까?
"그렇다면 우리(나 + AI)는 성공할 것 같다"
10여 년 전, 영등포역에서 "미래 세상에 뇌에 칩을 박지 마세요!"라고 외치던 분들이 있었다. 그때는 그냥 지나쳤지만, 지금 일론 머스크의 뉴럴링크를 보면 그 우려가 현실이 되어가고 있고, 이런 선구자들은 실제로 이미 머리에 칩을 박고 있다.
설령 우리가 물리적으로 뇌에 칩을 박지 않더라도, 매일 LLM에게 물어보고 일을 하는 지금 이 행위가 과연 칩을 박지 않은 것이라고 할 수 있을까?
요즘 나는 AI에 순응을 넘어 공존하고 있다는 느낌을 받는다.
이제 내가 셍각하는 개발자와 비개발자의 차이란 앞으로 AI를 잘 다루는 사람과 잘 다루지 못하는 사람과 크게 다르지 않은 것 같다.