FEInterview Prep

Velog

뭔가 큰 일이 벌어지고 있다

AI 코딩 도구가 보조에서 독립 실행자로 넘어가고 있다는 경고 에세이. FE 엔지니어가 지금 당장 택해야 할 4가지 행동을 정리.

2026-04-09·12분 읽기
AI & 도구커리어
원문 보기 ↗

핵심 요약

저자는 AI 코딩 도구가 2025년을 기점으로 보조 도구에서 독립 실행자(agentic)로 질적 전환을 했다고 본다. GPT-5.3 Codex와 Claude Opus 4.6 출시 이후에는 자리를 비우면 앱이 만들어지고 테스트까지 돌아간다고 주장한다. METR 벤치마크는 AI가 자율 완수하는 작업의 인간 소요 시간이 약 7개월 배가에서 4개월 배가로 가속됐다고 보고한다. 저자가 제시하는 행동은 무료 말고 최상위 유료 모델을 워크플로 중심에 둘 것, 자존심 버리고 매일 실험할 것, 관계·신뢰·면허처럼 대체 어려운 자산에 집중할 것, 재정 회복력을 확보할 것 네 가지다. 숫자와 예측은 검증이 필요하지만, 윈도우가 열려 있을 때 먼저 움직이는 사람이 유리하다는 프레임은 FE 엔지니어에게도 유효하다.

이 글은 기술 해설이 아니라 앞으로 12~24개월 커리어를 어떤 프레임으로 설계할 것인가에 대한 체크리스트다. 숫자(GPT-5.3 Codex, Claude Opus 4.6, METR 배가 주기)는 검증 대상이지만, 의사결정 프레임(지금 움직이는 사람이 이긴다)은 프론트엔드 엔지니어에게도 그대로 적용된다.

프론트엔드 면접에서 최근 AI 도구를 어떻게 썼는지는 이제 필수 질문이 됐다. 체크해야 할 축:

  • ChatGPT 써봤다 수준이 아니라 어느 구간을 어떤 모델에 위임했는지
  • 생산성 향상 수치와 검증 방법을 함께 제시할 수 있는지
  • FE 직군의 역할 변화(아키텍처/설계 비중 증가, 보일러플레이트 비중 감소)에 대한 자기 가설이 있는지
  • 과장된 예측을 비판적으로 해체할 수 있는지

즉, 단순 사용자냐 전략가냐를 가르는 질문이 된다.

학습 포인트

면접 답변으로 연결할 학습 포인트입니다.

보조 → 독립 실행자

저자가 체감한 핵심 변화는 수정할 초안을 만든다에서 자리를 비우면 완성된 결과물이 기다린다로의 전환이다. 코드 생성에 그치지 않고 앱을 실행하고 버튼을 클릭해 스스로 테스트까지 한다.

# 과거: 스니펫 요청
> "이 함수 짜줘" → 붙여넣기 + 수정

# 지금: 작업 위임
> "이 리포지토리에 로그인 플로우 추가, 테스트까지 통과시키고 PR 올려"

질적 차이의 포인트는 루프를 AI가 직접 닫는다는 것이다.

agentic codingself-testingautonomous iteration
자주 하는 오해

AI 도구 체감을 2023~2024년 기준으로 굳혀 두는 것. 6개월 단위로 재평가하지 않으면 판단이 낡는다.

METR 작업 시간 배가 곡선

METR는 AI가 사람 도움 없이 끝까지 완수하는 작업을 숙련 인간 기준 소요 시간으로 측정한다. 저자 인용에 따르면:

시점AI 자율 완수 가능 시간배가 주기
약 1년 전10분 수준약 7개월
현재약 5시간 수준약 4개월

단일 벤치마크라는 한계가 있지만 선형 개선이 아니라 지수 개선이라는 경향성을 잡기 유용하다.

METRtask time horizondoubling time
자주 하는 오해

벤치마크 숫자를 그대로 현실 업무로 환산하는 것. 측정 방식과 작업군의 생태학적 타당성부터 확인해야 한다.

AI가 AI를 만드는 자기증폭 루프

OpenAI는 GPT-5.3 Codex 문서에서 "제작 과정에서 스스로가 도구로 사용된 첫 모델"이라고 명시했고, Anthropic도 자사 코드의 상당 부분을 AI가 작성한다고 밝혔다. 각 세대가 다음 세대 개발을 돕는 피드백 루프가 돌기 시작했다는 점이 핵심이다.

intelligence explosion은 더 이상 SF 용어가 아니라 연구소 공식 문서에 등장하는 운영 현실이다.

이 때문에 개선 속도 예측이 과거 기술 곡선보다 어렵다.

intelligence explosionself-improvement loopCodex
자주 하는 오해

AI가 AI를 만든다를 과장으로 치부하는 것. 반대로 맹신도 금물 — 루프가 어디서 병목(데이터/에너지/규제)에 막히는지 같이 읽어야 한다.

대체 어려운 것에 집중

단기적으로 AI 대체가 느린 영역은 다음과 같다:

  1. 수년에 걸친 신뢰 관계 — 쌓는 데 시간이 걸리고 거래 비용으로 보호된다.
  2. 면허·법적 책임이 따르는 서명 권한 — 변호사·의사·회계사의 서명처럼 규제가 붙은 것.
  3. 규제 장벽이 높은 산업 — 의료, 금융, 항공 등.

FE 엔지니어라면 코드 작성 속도 대신 도메인 이해, 제품 판단, 이해관계자 설득 경로에 시간을 재배분하는 것이 합리적이다.

moatlicensed accountabilityregulatory inertia
자주 하는 오해

창의성은 안전하다는 막연한 방어선. 저자는 최신 모델이 이미 판단/취향의 조짐을 보인다고 반박한다.

무료 모델로 판단 굳히기 금지

저자는 무료 버전만 써보고 AI를 평가하지 말라고 강조한다. 최상위 유료 모델(Claude Opus 4.6, GPT-5.3 Codex 급)과 무료 모델 사이의 격차가 체감 생산성을 좌우한다.

  • 무료 = 초안 생성기
  • 유료 상위 = 작업 위임 가능한 에이전트

팀/개인 예산에서 도구 구독을 가장 먼저 방어해야 한다.

frontier modelworkflow integrationtool budget
자주 하는 오해

회사가 안 사주면 못 쓴다고 멈추는 것. 개인 구독으로 먼저 실험해 ROI를 증거로 들고 도입 협상에 들어가야 한다.

읽는 순서

  1. 1이론

    METR의 task time horizon 그래프와 Anthropic·OpenAI의 공식 모델 카드를 직접 읽어 저자의 주장과 1차 출처를 대조하세요.

  2. 2구현

    Claude Code/Cursor/Codex 중 하나를 골라 실제 프로덕션 저장소의 작은 리팩터링 PR을 AI에 전부 위임해 보고, 검토에서 놓친 점을 기록하세요.

  3. 3실무

    내 업무 시간표를 1주일 단위로 쪼개 검증 비용이 낮고 시간 비중이 큰 작업 Top 3를 찾아 AI 위임 실험을 설계하세요.

  4. 4설명

    가족/비개발자 친구에게 현재 AI가 코딩에서 실제로 어디까지 하고 어디서 막히는지과장 없이 설명하는 5분 버전을 준비하세요.

면접 연결 질문

medium최근 6개월 동안 AI 코딩 도구로 본인의 개발 워크플로를 어떻게 재설계했는지 구체 사례로 설명해 주세요.
힌트

[감점 답변] ChatGPT로 코드 질문한다 수준은 감점. [좋은 답변] 특정 작업(보일러플레이트, 타입 마이그레이션, 테스트 작성)을 어떤 모델/도구(Cursor, Claude Code, Codex)에 어떻게 위임했는지, 정확도 검증 방법리뷰 기준까지 포함.

medium팀 동료가 `AI 도구는 아직 불안정해서 도입을 미루자`고 주장할 때 어떤 논리로 접근하겠어요?
힌트

[감점 답변] AI 쓰세요 수준의 권유는 감점. [좋은 답변] 무료 vs 최상위 모델 격차, 실패를 안전하게 격리하는 도입 경로(비중요 리팩터링, 테스트 보강부터), 작업 시간 배가 같은 경향성을 근거로 점진적 실험을 제안.

hard이 글이 제시한 `1~5년 안에 신입급 화이트칼라 50% 대체` 같은 주장을 비판적으로 평가하려면 어떤 질문을 던져야 할까요?
힌트

[감점 답변] 그건 과장이다 식 단정은 감점. [좋은 답변] 주장 출처의 이해관계(AI 연구소 CEO 편향), 벤치마크의 생태학적 타당성, 규제·채용 관행의 점성, 과거 자동화 물결의 회복 속도 같은 반증 포인트를 제시한 뒤 자신의 확률 추정을 보정.

자기 점검

내 현재 업무 중 AI에 가장 먼저 위임할 수 있는 3가지 작업과 그 선택 이유를 말해 보세요.
반복성검증 비용리스크시간 비중
자주 하는 오해

중요한 일은 AI에 못 맡긴다는 이분법. 핵심은 검증 비용이 낮은 반복 작업부터 시작하는 것이다.

향후 12개월 내 `대체되기 어려운 자산`을 쌓기 위해 이번 분기에 할 한 가지 행동을 정해 보세요.
도메인네트워크판단력실험 루프
자주 하는 오해

더 많은 기술 스택을 배운다로 귀결하는 것. 저자 논지에 따르면 기술 스택은 가장 빨리 대체되는 영역이다.