지난 화요일 7시 20분 출근길, 광역버스 자리에 앉자마자 슈카월드 채널 영상을 켜놓고 있었어요. ‘AI가 AI를 개발하면 일어나는 일’이라는 영상이었거든요. 평소처럼 그냥 들으면서 가야지 했는데 한 대목에서 진짜 핸드폰을 잠깐 내려놓고 창밖만 멍하니 보게 됐어요. AI가 AI를 만드는 시대가 왔다는 표현, 뉴욕타임스가 ‘AI 빅뱅’이라고 부른 시점이 사실은 지금이라는 얘기였거든요.
제가 IT 보안 일을 하다 보니 코드 검수가 얼마나 빡빡한 일인지 매일 느끼는데요. 영상에 인용된 자료에 따르면 어떤 회사는 한 달에 25,000줄 나오던 코드가 AI 도입 후 25만 줄로 늘었다고 해요. 검토할 코드는 100만 줄이 쌓여 있고요. 이게 무슨 얘기냐, 사람이 검수할 속도를 이미 한참 넘어섰다는 뜻이죠.
이 글에서는 알파고가 등장했던 2016년부터 정확히 10년이 흐른 지금, AI가 어디까지 와 있는지 한번 정리해 볼게요. 단순히 영상 요약이 아니라 보안 실무자 입장에서 본 ‘진짜 무서운 부분’도 같이 넣었습니다. 어디서 흘러가는지 흐름만 잡아도 앞으로 몇 년이 훨씬 다르게 보일 거예요.
한눈에 보기
- 2026년 ‘AI 빅뱅’ 키워드는 단순 마케팅이 아니라 재귀적 자기개선이 실제 시작된 시점을 가리킵니다
- 구글 딥마인드는 알파고(2016) → 알파폴드(2020) → AI 코사이언티스트(2025) 순서로 진화했습니다
- 데미스 하사비스가 2024년 노벨 화학상을 받았어요. AI 연구자가 화학자도 아닌데 받았다는 건 그만큼 임팩트가 컸다는 거죠
- 2026년 안에 구글 딥마인드 서울 캠퍼스가 강남에 들어섭니다 (영국 밖 첫 거점)
- 코드 검수 속도가 AI 코드 생산 속도를 못 따라가서 보안 리스크가 커지고 있어요


AI 빅뱅이 정말 시작됐어요
이거 저도 영상 보면서 처음 정확히 알게 된 부분인데요. ‘AI 빅뱅’이라는 표현은 뉴욕타임스가 먼저 썼다고 합니다. 빅뱅이 뭔가요. 한 점에서 우주가 빛보다 빠르게 팽창했던 그 사건을 말하잖아요. 지금 AI 발전 속도가 딱 그렇다는 거죠. 매주 뭐가 새로 나오는데, 어제 알았던 게 오늘 옛 얘기가 됩니다.
핵심은 ‘재귀적 자기개선’이라는 단어예요. 영어로 recursive self-improvement. 단어가 좀 어렵죠. 한 마디로 풀면 AI가 자기 코드를 스스로 열어보고 부족한 부분을 고쳐서 더 나은 AI로 진화한다는 거예요. 사람이 만들 때는 1주일 걸리던 게 AI가 자기를 고치면 몇 시간이면 끝난다는 식이죠.
실제로 OpenAI는 ‘랄프 루프(Ralph loop)’라는 기능을 코덱스에 추가했어요. 사람이 중간에 “이거 해라, 저거 해라” 시키지 않아도 AI가 며칠을 혼자 작업을 이어갑니다. 며칠이요. 잠도 안 자고 휴게시간도 없이요. Meta FAIR도 ‘하이퍼에이전트(HyperAgents)’라는 걸 발표했는데, 메타 에이전트가 자기 자신과 작업 에이전트를 동시에 수정하는 구조라고 해요.
저도 처음 봤을 땐 ‘이거 좀 과장 아닌가’ 싶었거든요. 근데 보안 점검 다니다 보면 요즘 개발팀들 분위기가 진짜 다릅니다. 작년만 해도 “AI한테 코드 짜라고 시켜봤는데 이상하더라” 이런 얘기였는데, 올해는 “주말 사이에 한 명이 기능 하나 다 배포해버렸다”는 얘기가 흔해요. 그게 정상인지는 솔직히 저도 헷갈립니다.
알파고에서 정확히 10년 흘렀습니다
2016년 3월 9일이었어요. 이세돌 9단 vs 알파고 대결. 그때 저는 군 전역하고 한참 학교 다니던 시절이라 진짜 진지하게 봤어요. 그날 전 세계에서 2억 명이 넘는 사람들이 그 바둑을 봤다고 합니다. 솔직히 그 2억 명 중에 바둑 룰 아는 사람이 몇 명이나 있었을까요. 그냥 ‘인간 1등이 진다’는 게 신기했던 거죠.
지금 와서 보면 당연한 결과지만 그때는 분위기가 달랐어요. 바둑 기사 90%가 이세돌이 이긴다고 했고, 본인도 그렇게 생각했죠. 왜냐? 바둑판에서 둘 수 있는 경우의 수가 10의 170승이거든요. 이게 어느 정도냐, 우주 전체에 있는 모든 원자 수보다 많은 숫자예요. 컴퓨터가 아무리 빨리 계산해도 도저히 못 풀 거라고 생각했던 거죠.
근데 알파고는 다른 방법을 썼습니다. 모든 경우의 수를 계산하지 않고 ‘어디가 가치가 높은가’만 골라서 거기만 깊게 봤어요. 이게 바로 어텐션(attention)이라는 메커니즘이에요. 가장 유명한 수가 알파고 2국 37수인데, 이걸 본 인간 바둑 기사들이 “저건 인간이라면 절대 안 두는 수다”라고 했거든요. 근데 알파고는 그 수로 압도적으로 이겼어요.
그 순간 이세돌 9단이 인터뷰에서 했던 말이 인상 깊어요. “저는 알파고를 단순한 계산 기계라고 생각했는데, 그 수를 보고 생각이 바뀌었어요. 알파고는 정말 창의적이네요”라고요. 계산기가 창의적이라는 표현. 그때는 어색했는데 지금은 너무 익숙한 말이 됐죠. 정확히 10년 전 일입니다.

텐서플로와 트랜스포머가 깔아준 길
여기서 좀 기술적인 얘기를 짧게 짚고 갈게요. 안 어렵게 풀어볼게요. 지금 우리가 쓰는 GPT, 클로드, 제미나이 같은 AI들이 다 비슷한 뿌리를 갖고 있어요. 그 뿌리가 두 개입니다. 텐서플로(2015)와 트랜스포머 논문(2017).
텐서플로는 구글이 공개한 AI 개발 도구상자예요. 이게 나오기 전에는 AI 만들려면 처음부터 코드를 쌓아야 했는데, 텐서플로가 나오고는 누구나 쉽게 AI 프로그램을 만들 수 있게 됐어요. 그러다 보니 너무 무거워서 일반 컴퓨터에서 안 돌아가는 문제가 생겼죠. 그래서 구글이 2016년에 만든 게 TPU(Tensor Processing Unit)예요. 지금 7세대까지 나왔습니다. AI 연산 전용 반도체죠.
그리고 2017년에 진짜 역사적인 논문이 나옵니다. 제목이 ‘Attention Is All You Need’예요. 직역하면 “주목하는 것이 당신이 필요한 모든 것이다”. 이 논문에서 트랜스포머라는 구조를 처음 제안했어요. GPT의 T가 바로 트랜스포머예요. Generative Pre-trained Transformer. 미리 훈련해서 새로운 걸 생성하는 트랜스포머. 우리가 지금 쓰는 거의 모든 AI가 이 구조를 씁니다.
예전에는 AI가 문장을 처리할 때 단어를 하나씩 순서대로 봤어요. ‘안녕’ 보고 ‘하세요’ 보고 ‘저는’ 보고. 이러니 느렸죠. 트랜스포머는 어디가 중요한지 어텐션을 줘서 한 번에 병렬로 계산해요. 속도가 비교가 안 되게 빨라졌어요. 알파고가 바둑판에서 ‘여긴 가치가 높네’ 골라낸 거랑 똑같은 원리죠. 결국 9년 전 그 한 편의 논문이 지금 산업 전체를 만든 거예요.
알파폴드가 만든 진짜 충격
여기부터가 진짜 본 게임입니다. 데미스 하사비스가 처음부터 바둑 두려고 딥마인드 만든 사람이 아니에요. 그 사람 목표는 ‘인간처럼 생각하는 AI’였고, 진짜 노렸던 건 과학이었어요. 알파고는 그냥 보여주기 이벤트였던 거죠.
2020년에 알파폴드 2가 발표됐어요. 단백질 구조 예측 문제를 거의 다 풀어버렸습니다. 단백질이 뭔가요. 아미노산이 사슬처럼 연결되어 있는 건데, 이게 그냥 일자로 있지 않고 어떤 모양으로 접혀요. 이걸 ‘프로테인 폴딩’이라고 하는데, 어떻게 접히느냐에 따라 단백질의 역할이 달라집니다.
문제는 한 단백질이 접힐 수 있는 모양의 경우의 수가 우주 전체 원자 수보다 많다는 거예요. 그래서 단백질 구조 하나 밝히는 데 보통 수년이 걸리고 비용도 어마어마했어요. 근데 알파폴드는 이걸 몇 분 안에 예측해버립니다. 정확도도 미쳤고요. 바둑판에서 ‘여기 두면 승률 98%’ 계산하던 그 원리를 단백질에 그대로 가져온 거죠.
그래서 데미스 하사비스가 2024년 노벨 화학상을 받았어요. 화학을 전공한 적도 없는 AI 연구자가요. 화학계 전체를 바꿔놨다는 인정인 거죠. 알파폴드는 지금 오픈소스로 공개돼 있고, 전 세계 200만~300만 명이 쓰는데 그 중 한국 연구자가 8만 5천 명이래요. 한국이 새 기술 도입은 진짜 빠르긴 빨라요.
여담인데, 저도 보안 점검하다가 가끔 ‘이게 맞는 건가’ 싶을 때가 있어요. 예전에 어떤 사이트 진단 갔다가 우리 팀이 처음엔 정상이라고 결론 냈었거든요. 근데 한 달 뒤에 보니 거기서 큰 사고가 터졌어요. 사람 눈에는 안 보이는 게 너무 많구나 싶었던 일이었는데, 알파폴드 같은 도구가 있었으면 진짜 다르지 않았을까. 어쨌든 본론으로 돌아오면, AI가 과학으로 들어왔다는 의미가 정말 큽니다.

AI 코사이언티스트와 알파이볼브
2025~2026년 들어서 구글 딥마인드가 또 하나씩 풀어내고 있어요. 이름들이 좀 비슷비슷해서 헷갈릴 수 있는데, 알파프루프, 알파이볼브, AI 코사이언티스트 이렇게 세 개만 기억하시면 돼요.
알파프루프는 수학 전문 AI예요. 국제 수학 올림피아드(IMO) 문제를 풉니다. 처음 공개됐을 땐 6문제 중 4문제를 풀어 은메달 수준이었는데, 최근엔 금메달급까지 올라왔다는 얘기가 나와요. 사람이 한 문제 푸는 데 며칠 끙끙대는 걸, AI는 몇 시간이면 풀어버립니다.
알파이볼브는 코딩 에이전트예요. 그냥 코드 자동완성 수준이 아니라 알고리즘을 새로 발견하고 최적화까지 합니다. 어떤 회사 사례로는 “과거에 10명이 했던 일을 주말 사이에 개발해서 월요일에 배포했다”는 표현이 있었어요. 이게 일반 개발자 입장에선 진짜 무서운 얘기예요.
AI 코사이언티스트는 과학자용 AI 비서예요. 가설 만들고, 실험 설계하고, 데이터 분석하고, 논문 초안까지 씁니다. 2026년 3월 네이처에 올라온 한 논문은 “AI가 과학 연구를 처음부터 끝까지 자동화할 수 있다”고 주장했어요. 솔직히 이 부분 읽으면서 ‘진짜?’ 싶었거든요. 과학자가 더 이상 필요 없는 시대까지 진지하게 논의되는 시점이라는 거니까요.
여기에 더해서 2026년 안에 구글 딥마인드 서울 AI 캠퍼스가 강남에 600평 규모로 개소합니다. 영국 본사 제외하고 전 세계에서 처음 만드는 해외 거점이에요. 그게 한국에 들어와요. 이 부분은 의외로 한국 IT 업계에 큰 영향이 있을 거 같아요.
한국에 직접 거점이 생기면 뭐가 달라질까요. 일단 한국 스타트업이 알파폴드, 알파이볼브 같은 도구에 직접 접근할 통로가 생겨요. 의료·제약 쪽도 분위기가 바뀔 거고요. 솔직히 그동안 한국 바이오 회사들이 글로벌 신약 개발 사이클에 들어가기 어려웠는데, 알파폴드를 적극 활용하는 회사 중에 한국 연구자가 8만 5천 명이라는 숫자가 그냥 나온 게 아니에요. 이미 시작은 하고 있다는 뜻이거든요.
제가 보안 점검 다니면서 만난 어느 제약 회사 IT팀이 작년 초까지만 해도 “AI 신약은 우리한테 너무 멀어요”라는 분위기였는데, 올해 가서 보니까 “알파폴드 데이터로 후보 물질 100개 추렸다”는 얘기를 하더라고요. 1년 사이에 분위기가 진짜 다릅니다. 한국에 캠퍼스 들어오면 이 속도가 한 번 더 점프할 거예요.
근데 이렇게 모든 산업에 AI가 빠른 속도로 들어오면, 보안 일 하는 입장에서는 마음이 또 복잡해지거든요. 신약 후보 100개를 AI가 추렸다는 말은 곧 그 100개를 검증하는 시스템도 AI가 만들었을 가능성이 높다는 얘기예요. 그러면 어디까지 사람이 책임지는지가 흐려져요. 다음 섹션에서 이 부분을 좀 더 풀어볼게요.
보안 일 하는 사람으로서 진짜 무서운 부분
여기서부턴 제 본업 얘기 좀 해도 될까요. 저는 IT 보안에서 취약점 점검을 합니다. 솔직히 매일 코드를 들여다보면서 ‘여기 이상한데’ 찾는 일이거든요. 그런 입장에서 AI 빅뱅의 진짜 무서운 부분을 말씀드리고 싶어요.
뉴욕타임스 기사 한 줄이 진짜 묵직했어요. “현재 전 세계 모든 보안 인력을 다 모아도 미국 기업이 만드는 코드를 검수할 수 없다”는 표현이요. AI가 코드를 너무 빨리 쏟아내고, 사람 검수자는 한정돼 있고, 결과적으로 검수되지 않은 코드가 운영 환경에 그냥 올라가는 시대가 됐어요.
이게 왜 무섭냐. AI가 만든 코드에는 AI가 만든 취약점이 같이 들어 있을 가능성이 높다는 거예요. AI는 학습 데이터에 있던 패턴을 따라가는데, 그 학습 데이터에 이미 SQL 인젝션이나 인증 우회 같은 패턴이 섞여 있을 수 있거든요. 게다가 AI는 ‘이게 왜 안전한가’를 인간 수준으로 설명하지는 못해요. 그냥 ‘이 정도면 비슷하니까 괜찮을 것이다’ 수준의 확률 판단이죠.
그러구 또 하나, AI 코드 검수 AI도 나오고 있어요. 사람이 못 보니까 검수도 AI한테 시키자는 거죠. 근데 이게 한 단계 더 위험해요. AI가 AI를 검증하는 구조에서 둘 다 같은 편향을 학습했으면 같은 실수를 똑같이 못 잡습니다. 보안 업계에서 ‘에코 챔버 리스크’라고 부르는 게 이거예요. 솔직히 이 부분은 저도 어떻게 풀릴지 100% 확신은 못 하겠어요. 다만 앞으로 몇 년 안에 ‘AI가 만든 코드만 들어가서 큰 사고 난 사례’가 분명히 한 번은 나올 거라고 봅니다.
혹시 개발팀에서 일하고 계신 분이라면, 한 번쯤은 “우리가 AI한테 시켜서 만든 그 코드, 진짜 사람이 다 봤어요?” 같은 질문을 팀 안에서 해보시는 게 좋을 거 같아요. (요즘 이 질문을 안 하는 팀이 더 많은 거 같거든요.)
실제로 올해 들어서 “AI 코드만 들어가서 운영 사고 났다” 식의 사례가 해외에서 조금씩 나오기 시작했어요. 어떤 회사는 AI가 만든 인증 로직이 알고 보니 토큰 만료 검증을 빼먹고 있어서 며칠 동안 누구나 다른 사람 계정으로 들어갈 수 있었다는 사례도 있었고요. 사람이 짰으면 코드 리뷰에서 한 번에 잡혔을 텐데, AI한테 맡기고 사람은 ‘잘 돌아가네’만 확인했던 거죠. 이게 진짜 무서운 부분입니다. 잘 돌아가는 것과 안전한 건 완전히 다른 얘기거든요.
그래서 저는 요즘 점검 갈 때마다 “AI가 짠 코드 비율이 어떻게 되세요?”를 꼭 물어봐요. 이게 30%를 넘는 팀과 안 넘는 팀의 보안 점검 방식이 진짜 달라야 한다고 봐요. 아직 업계 표준이 없어서 각자 알아서 하는 분위기인데, 1~2년 안에는 “AI 생성 코드 보안 가이드라인” 같은 게 한국정보보호산업협회 차원에서 만들어져야 하지 않을까 싶어요.

여기는 좀 짧게 갈게요
데미스 하사비스 노벨상 수상 얘기는 다들 한 번씩 들어보셨을 거 같아서 길게 안 풀게요. 받았다, 의미 있다, 끝.
그냥 한 줄로 정리하면 ‘AI 연구자가 화학상을 받는 시대가 됐다’는 거예요. 그 한 줄이면 충분합니다.
그래서 우리는 어떻게 살아야 할까요
제가 이 글을 쓰면서 가장 많이 한 생각이 ‘우리 둘째가 사회 진출할 2046년에는 어떤 직업이 있을까’였어요. 첫째는 2024년생, 둘째는 2026년생이거든요. 둘째가 만 20세 되면 2046년인데, 그 시점에 지금 있는 직업의 절반은 사라져 있을지도 몰라요.
근데 너무 비관할 필요는 없다고 봐요. 알파고 나왔을 때도 “바둑 기사 다 망한다”는 얘기가 있었지만, 사실 바둑 학원은 더 늘었어요. AI 도구를 어떻게 다루느냐가 새로운 실력이 됐거든요. 개인적으로는, 앞으로는 ‘내 분야에 AI를 어떻게 끼워 넣을지 아는 사람’과 ‘모르는 사람’으로 갈릴 거 같아요. 직업 자체보다는 그쪽이 더 중요해질 거예요.
저 같이 보안 일 하는 입장에서도 마찬가지예요. AI가 코드를 만들면 우리는 ‘AI가 만든 코드의 패턴을 점검하는 새로운 보안’을 해야 하는 거고, 그 분야는 오히려 일자리가 늘어요. AI한테 일을 빼앗기는 게 아니라, AI를 점검하는 사람이 되는 쪽으로 자기 위치를 바꿔야 한다는 거죠.
그리고 한 가지 더. 절약형으로 살아온 입장에서, 이런 시기에 “AI 관련주에 한방 베팅” 같은 마음은 진짜 안 가지셨으면 해요. 1990년대 닷컴버블 때도 그랬고 2017년 코인 광풍 때도 그랬어요. 산업의 진짜 변화는 5년~10년 단위로 천천히 옵니다. 단기에 큰돈 노리는 분들이 가장 다친다는 건 역사가 보여줘요. 저는 그래서 그냥 본업에서 AI를 활용하는 능력을 차곡차곡 쌓는 쪽이 훨씬 안전하다고 봅니다.
대신 질문 해드릴게요
Q1. AI 빅뱅이라는 단어가 정확히 어디서 나온 건가요?
뉴욕타임스가 “AI Big Bang”이라는 표현을 처음 본격적으로 썼고, 이후 다양한 매체와 연구자들이 인용했어요. 2025년 말부터 본격적으로 쓰인 표현입니다.
Q2. 재귀적 자기개선이 왜 중요한가요?
AI가 사람 손을 거치지 않고 스스로 더 나은 AI를 만들 수 있다는 뜻이에요. 발전 속도가 사람이 따라잡을 수 없는 영역으로 들어간다는 의미라서 학계에서도 가장 주목하는 키워드입니다.
Q3. 알파폴드가 노벨 화학상을 받은 게 진짜 의미가 큰가요?
네, 큽니다. 화학을 전공하지 않은 AI 연구자가 화학상을 받은 건 처음에 가까운 일이에요. 알파폴드 데이터베이스가 오픈소스로 풀려서 전 세계 화학자들이 무료로 쓰고 있어요.
Q4. AI 코사이언티스트가 사람 과학자를 완전히 대체할 수 있나요?
지금 단계에서는 ‘대체’보다는 ‘협업 비서’ 수준이에요. 다만 2026년 3월 네이처에 올라온 논문에서는 처음부터 끝까지 자동화 가능성이 제시됐고, 이건 5~10년 내 충분히 가능성이 있는 시나리오로 보고됩니다.
Q5. 일반 개발자도 AI 빅뱅을 두려워해야 하나요?
두렵게보단 ‘공부할 거 많아졌다’ 정도로 보시는 게 맞아요. 단순 코딩만 하는 포지션은 줄겠지만, AI 코드를 검수·통합·보안하는 새로운 일이 만들어지고 있어요.
Q6. 한국 IT 업계에 미치는 영향이 클까요?
큽니다. 2026년 안에 구글 딥마인드 서울 AI 캠퍼스가 강남에 들어서요. 영국 본사 제외 첫 해외 거점입니다. 한국 스타트업들이 직접 협력할 기회가 생깁니다.
Q7. AI가 짠 코드를 그냥 운영 환경에 올려도 안전한가요?
솔직히 안전하지 않습니다. AI는 학습 데이터에 있던 패턴을 따라가기 때문에 취약점도 같이 만들 수 있어요. 보안 점검 없이는 절대 권하지 않습니다.
Q8. 우리 아이가 어떤 진로를 잡아야 할까요?
정해진 답은 없는데, 저는 ‘AI를 도구로 쓰면서 본인 전문성을 쌓는 직업’이 가장 안정적이라고 생각해요. 의료·법·교육·보안처럼 AI가 보조하지만 사람의 책임이 필요한 분야가 그래도 오래 갈 거예요.
레추의 총평
알파고 이후 정확히 10년이 지났어요. 그 사이에 AI는 바둑판에서 출발해서 단백질을 풀고, 수학을 풀고, 이젠 자기 자신을 고치는 단계까지 왔습니다. 솔직히 영상 보면서 한 번 더 정신이 번쩍 들었어요. 이거 알고 있는 사람과 모르는 사람이 앞으로 5년 동안 진짜 큰 차이를 만들겠구나 싶었거든요.
그렇다고 너무 호들갑 떨 필요는 없다고 봐요. 핵심은 두 가지예요. 첫째, 본업에 AI를 어떻게 끼워 넣을지 매일 한 번씩만 생각해보기. 둘째, AI에 단기로 큰돈 베팅하지 말기. 이 두 가지만 지켜도 다음 5년은 잘 넘기실 거예요.
혹시 이 글이 도움 되셨으면, 주변에 비슷한 고민하는 분 있으시면 한번 공유해 주셔도 좋고요. 이 부분 더 깊게 다뤄줬으면 하는 주제 있으시면 댓글로 남겨주세요. 다음 글에서 풀어볼게요.
저는 앞으로도 이런 굵직한 변화가 있을 때마다 보안 직장인 시각으로 정리한 글 계속 써볼 생각이에요. 매일 한 시간씩 AI 도구 만져보는 습관 하나만 들이셔도 5년 뒤 지금이랑 완전히 다른 위치에 있으실 거라고 봐요. 우리 같이 천천히 따라가요.
참고 출처
이 글과 함께 많이 보는 상품
이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.