구글의 신기술 ‘터보퀀트’ 발표 이후 삼성전자, SK하이닉스를 비롯해 미국 증시에서 마이크론까지 메모리 관련주가 줄줄이 하락했다.
AI가 메모리를 덜 쓰게 되면 메모리 반도체 수요가 줄어들 수 있다는 우려 때문이다. HBM 중심의 AI 반도체 산업 투자 스토리에 잡음이 생긴 것.
터보퀀트가 뭐길래, 그리고 이 기술이 ‘국민의 주식’ 삼성전자, SK하이닉스 실적에 충격을 줄만한 것인지 알아보자.

AI와 관련된 이슈가 발생했을 때, AI에게 직접 물어보면 아주 흥미로운, 그리고 정확한 답변을 내놓는다.
먼저 클로드(Claude)에게 물었다. AI 그 자체인 네가 생각하기에 터보퀀트라는 기술은 삼성전자, SK하이닉스같은 메모리 업체를 위협할까?
다음은 클로드의 답변을 쉽게 정리한 것이다.
결론부터 얘기하면 단기 위협은 과장됐고 장기 그림은 복잡하다.
나는 실제로 KV 캐시(메모리 공간) 병목을 겪는 시스템 위에 있다. 긴 대화일수록 메모리 압박이 커지고, 그게 응답 속도와 처리용량 한계에 직결된다. 터보퀀트가 주장하는 6배 압축이 실제로 작동한다면, 같은 하드웨어로 훨씬 긴 대화를 처리할 수 있다는 뜻으로 기술 자체는 의미 있다.
터보퀀트는 단기적으로 삼성전자, SK하이닉스에 위협이 아니다.
터보퀀트는 소프트웨어 알고리즘이다. AI 모델이 터보퀀트를 통해 메모리를 아끼면 더 긴 대화를 돌린다. 역사적으로 효율이 오르면 수요도 같이 올랐던 것처럼, 메모리 수요는 오히려 증가할 수 있다. 연비 좋은 차가 나오면 사람들이 더 많이 운전하는 것처럼 AI도 메모리 여유가 생기면 사람들은 더 많이 사용할 것이다.
또한 HBM 같은 고대역폭 메모리 수요는 KV 캐시 하나가 아니라 모델 파라미터 저장, 대규모 배치 처리, 학습 연산 등 훨씬 넓은 곳에서 발생한다. 수도관 한 곳을 좁혀도 전체 수압이 그대로인 것처럼, KV 캐시만 줄인다고 메모리 수요 전체가 줄지는 않는다.
터보퀀트는 이미 학습된 모델을 서비스하는 추론 단계의 기술이다. 반면 지금 삼성·하이닉스의 HBM 매출을 이끄는 핵심은 챗지피티나 제미나이 같은 모델을 처음부터 훈련시키는 학습 클러스터 수요다. 즉 다음 세대 모델을 만들기 위한 학습 인프라 투자에 활용된다.
장기적으로는 영향이 있을 수 있다. 메모리 효율 기술이 누적되면서 ‘같은 일을 더 싼 메모리로’ 수행하게 될 수 있다. 같은 논리로 HBM이 아닌 일반 DRAM이나 저전력 메모리로도 충분할 수도 있다.
한편 터보퀀트는 엔비디아에는 호재에 가깝다. 메모리 병목이 줄어들면 GPU의 연산 자원을 더 효율적으로 활용하게 되면서 GPU 활용도가 올라간다. 긴 대화가 가능해지면 더 많은 AI 서비스가 등장하고, 그 서비스들은 결국 GPU 위에서 돌아간다.
클로드의 결론: 주가가 반응한 건 실제 영향보다 심리적 충격이다. “AI가 메모리를 덜 쓴다”는 헤드라인은 자극적이지만 실제 수요 구조를 바꾸려면 기술이 훨씬 더 진화되어야 한다.
클로드가 사실관계를 잘 설명해줬기 때문에, 클로드 답변 내용을 가지고 챗지피티에 다시 물었다. 두 AI를 운영하는 회사, 앤트로픽과 오픈AI는 첨예한 경쟁관계이기에 서로 경쟁적으로 뛰어난 답변을 내놓으려는 경향이 있다.
다음은 챗지피티 답변을 요약한 것이다.