2009년 11월 7일 토요일

[스크랩] 코어 i5 & i7 비교

i001-1.jpg

PC의 역사가 사반세기를 넘은 지 오래지만 PC의 진화는 아직 ‘현재 진행형’이다. 처음 PC가 선보일 때만 해도 이 기계는 사무실의 업무용 컴퓨터 그 이상의 가치를 갖지 못했지만 어느새 PC는 가정의 공부방과 거실로 넘어왔다. 흑백 화면의 아스키 이미지를 조합한 조잡한 게임은 영화 수준과 비교해도 그리 흠잡기 어려울 정도의 풀 HD 수준까지 발전했고, 사무 작업 위주의 용도 역시 이제는 영화, 음악, 게임 등 엔터테인먼트 기능이 기술 발전의 큰 흐름을 만들고 있다.

CPU 역시 그러한 큰 흐름에 맞춰 끊임 없이 발전해왔다. 인텔이 ‘HD급 영상과 게임’을 내세워 코어 아키텍처 CPU를 내놓은지 3년. 그 사이에 세상은 단순 HD를 넘어 풀 HD, 그리고 그 이상의 세상을 노리고 있다. 이런 세상의 변화에 인텔은 어떤 대답을 내놓을까? 이 질문에 대해 인텔은 ‘네할렘 아키텍처’라는 새로운 기술을 해답으로서 내놓았다. 이미 2008년 말에 그 모습을 선보인 네할렘 아키텍처는 워크스테이션과 서버 시장에서 그 가치를 검증받았고, 이제 가정의 PC에서 사람들의 선택을 기다리고 있다. 인텔이 HD 이후의 세상에 내놓은 정답, 그것이 코어 i5와 i7, 일명 ‘린필드(Lynnfiled)’ CPU다.


■ 진화해야 산다! 인텔의 아키텍처 변화의 역사

CPU의 성능을 높이는 방법 가운데 가장 쉬운 것은 작동 속도를 높이는 것이지만, 속도만 무작정 끌어 올린다고 성능이 획기적으로 좋아지는 일은 없다. 더군다나 속도를 무한정 끌어 올릴 수 있을 것이라는 믿음의 뿌리인 ‘무어의 법칙’이 더 이상 100% 통하지  않음을 지난 몇 년동안 인텔을 비롯한 반도체 기업들은 몸소 느끼게 되면서 ‘속도 만능 주의’는 더 이상 고개를 들 수 없게 되었다. 속도를 높일 수 없다면 반도체 기술의 기본 뿌리, 아키텍처(Architecture)를 바꿀 수 밖에 없다.

지난 몇 년동안 인텔은 무작정 빠른 속도에 대한 욕망을 살짝 접고 아키텍처의 개혁을 꾸준히 이어가며 새로운 CPU를 내놓았다. ‘린필드’ CPU 역시 그러한 아키텍처 개혁의 노력에 따라서 성능을 높였다. 코어 i5와 i7의 진정한 장점을 이해하려면 인텔이 지금까지 어떤 생각으로 아키텍처 개혁을 이뤄왔는지 간단히나마 살펴보는 것이 필요하다.


◆ 펜티엄 프로~펜티엄 III 시대: 무어의 법칙 황금기, 그리고 멀티미디어 명령의 시대

린필드 코어 CPU를 비롯한 지금 팔리고 있는 대부분의 인텔 CPU들은 펜티엄 프로 시절에 처음 선보인 ‘P6’ 아키텍처에서 선보인 기술을 맨 밑의 뿌리로서 삼고 있다. 펜티엄 프로는 가정용이 아닌 사무 및 전문가 전용 CPU로서 그리 많이 팔리지는 않았지만, 린필드 CPU의 증조 할머니로 불릴만한 여러 기술을 담았다.

i002.jpg
펜티엄 프로 CPU는 코어 i5/i7은 물론이고 지금까지 나온 수 많은
인텔 CPU의 어머니라고 해도 좋을 정도의 존재다

아톰을 뺀 거의 모든 인텔 x86 CPU가 쓰는 ‘아웃오브오더(Out-of-Order)’ 명령 실행 구조를 처음 쓴 것은 펜티엄 프로이며, 32비트 환경에서 4GB 또는 그 이상의 메모리를 쓸 수 있도록 하는 변형 메모리 관리 기법인 36비트 PAE(Physical Address Extension, 물리 메모리 확장) 역시 펜티엄 프로에서 처음 선보인 것이다. 아웃오브오더 실행 구조는 CPU가 다음 자료를 기다리며 노는 시간을 줄여 같은 작동 속도에서 성능을 크게 높여 PC 역사에 큰 획을 그었으며, CPU에 2차 캐시 메모리를 넣은 것 역시 데스크탑 PC용 x86 CPU 가운데는 펜티엄 프로가 첫 번째 테이프를 끊었다. 어찌 보면 지금 나와있는 최신 CPU의 주요 기술은 이 펜티엄 프로 시기에 어느 정도 그 모습을 갖췄다고 해도 좋을 것이다.

그 뒤를 잇는 펜티엄 II와 펜티엄 III는 펜티엄 프로의 유산을 바탕으로 이것을 가정용 PC에 맞게 업그레이드했습니다. P6 아키텍처를 그대로 유지하면서 펜티엄 MMX CPU에 처음 선보인 ‘MMX(MultiMedia eXtension)’ 기술을 더했는데, MMX는 이미지/영상 편집과 동영상 재생, 게임 등 멀티미디어 작업에서 자주 쓰는 작업을 간단한 명령 한 번으로 실행하도록 하여 효율성을 높인 x86 CPU 최초의 SIMD(Single Instruction, Multi Data, 단일 명령 다중 데이터 처리) 기술이었다. 펜티엄 II는 펜티엄 프로의 기본 기술을 바탕으로 한 차원 좋아진 공정 기술과 그에 따른 작동 속도의 향상을 내세워 기본 성능을 높이고, 펜티엄 프로에서 빠진 MMX를 더해 가정용 작업의 성능을 높였다.

i003.jpg
펜티엄 III는 기술적인 발전은 매우 크지 않았지만 성능이 충분히 뛰어났기에
여전히 많은 사용자들에게 깊은 향수(?)를 느끼게 한다

펜티엄 III 역시 이러한 흐름은 변함이 없는데, 공정 기술을 높여 작동 속도를 더욱 끌어 올리고, MMX의 뒤를 잇는 2세대 SIMD 명령, SSE를 새롭게 내놓았다. 아키텍처의 큰 변화는 없지만 공정 기술을 꾸준히 끌어 올린 결과 펜티엄 III 시대에는 작동 속도가 1GHz를 넘어 1.4GHz에 이르기도 했다.

펜티엄 프로부터 펜티엄 III 시절의 아키텍처 특징은 무너질 기색을 보이지 않던 무어의 법칙에 따라서 공정 기술을 차근차근 끌어 올리며 작동 속도를 높여 기본 성능을 끌어 올리고, 점차 그 비중이 커지던 영화 및 이미지 처리, 게임에 맞춰 이러한 작업의 효율성을 높이는 SIMD 기술을 받아들인 점이다. 이미 아키텍처의 큰 진화는 펜티엄 프로에서 이뤄 냈으며, 그 이후에 나온 CPU는 이 아키텍처를 잘 다듬고 뛰어난 공정 기술의 혜택인 빠른 작동 속도를 이끌어내 사용자들의 마음을 사로 잡았다.


◆ 펜티엄 4 시대: 속도 만능 시대, 그리고 무어의 법칙의 좌절

펜티엄 프로부터 시작된 P6 아키텍처는 세 세대를 걸쳐 그 역할을 충분히 해냈지만 영원한 기술은 없듯이 인텔도 P6의 뒤를 잇는 새로운 아키텍처를 고민해야만 했고, 2000년에 새롭게 선보인 펜티엄 4는 P6의 마이너 업그레이드가 아닌 완전히 새로운 아키텍처, ‘넷버스트(Netbuest)’를 처음 선보인 CPU가 되었다.

i004.jpg
속도만 빠르면 무엇이든 해결이 될까?
펜티엄 4의 씁쓸한 노년(?)은 반도체 업계 전체의 고민거리이기도 했다 

넷버스트 아키텍처의 특징을 한 마디로 정리하면 ‘작동 속도를 더욱 빠르게’ 만드는 것이다. 파이프라인의 단계가 많아지면 많아질수록 같은 공정 기술을 써도 작동 속도를 높일 수 있는데, 펜티엄 4는 처음에는 20단계, 나중에는 31단계까지 파이프라인 단계를 늘렸다. 기껏해야 10개 수준인 펜티엄 III보다 훨신 많은 단계를 거쳐 명령 실행이 이뤄지게 되는데, 이렇게 파이프라인의 단계가 늘면 작동 속도는 빨라지지만, 만일 잘못 실행한 명령이나 데이터가 있으면 그 작업을 취소하고 처음부터 최고 31단계의 처리 과정을 다시 밟아야 하기에 클럭 당 실행 명령 수(IPC)가 떨어지는 문제가 생긴다.

인텔은 처리를 잘못 하는 실수를 줄여주도록 분기 예측(Branch Prediction) 효율성을 높였고, 새로운 분기 예측 기술에 더 빨라진 작동 속도를 더하면 넷버스트 아키텍처 CPU가 P6 아키텍처 모델보다 더 좋은 성능을 낼 것으로 생각했다. 여기에 CPU와 칩셋을 잇는 시스템 버스 속도를 종전의 최고 3배 수준으로 높이고 넷버스트 아키텍처에 맞춘 SSE2 기술을 더해 더욱 성능을 끌어 올렸다. 새로운 분기 예측 기능이 예상보다 정확하지 못했기에 속도에 비해 성능이 떨어지는 폭은 더 컸지만, 작동 속도를 더욱 끌어 올린 결과 ‘펜티엄 III보다 못하다’는 초기의 제품을 빼고나면 성능 역시 어느 정도 나쁘지 않은 평가를 받았다.

1.4GHz를 첫 모델로서 출발한 펜티엄 4는 공정 기술을 한번 더 바꾼 노스우드 코어 모델까지 큰 무리 없이 인텔의 생각대로 빠르게 속도를 끌어 올렸다. 그 사이 시스템 버스 속도는 더 빨라지고 2차 캐시 메모리 용량은 더 커졌으며 CPU 코어 하나로 두 가지 스레드(Thread)를 처리할 수 있는 가상 듀얼 CPU 기술, ‘하이퍼스레딩’이 첫 선을 보였다. 이러한 변화는 펜티엄 4의 성능을 사람들이 납득할 수 있는 수준 이상으로서 높이는 데 큰 역할을 했다.

그렇지만 펜티엄 4를 내놓을 때의 생각은 몇 년만에 벽에 부딪혔는데, 더 이상 무어의 법칙이 듣지 않게 된 것이다. 무어의 법칙은 18개월마다 반도체의 속도는 두 배 빨라진다는 것인데,  130nm 공정 기술까지는 무어의 법칙을 뒷받침하기에 별 어려움이 없었지만, 90nm 공정부터는 이론에 훨씬 미치지 못하는 결과를 낳았다. 전력 소비량과 반도체 크기는 생각만큼 줄지 않았고, 이 때문에 작동 속도를 높이는 데 어려움을 겪었다. 인텔은 90nm 공정 기술 펜티엄 4인 코드명 ‘프레스캇’을 내놓으며 최고 4GHz에 가까운 작동 속도를 내는 데 성공했지만, CPU 속도 증가 속도는 눈에 띄게 줄어들었고, 발열 문제 역시 적지 않은 불만을 샀다. 심지어 2차 캐시 메모리 용량은 두 배 늘어났는데 성능은 오히려 이전 세대 펜티엄 4보다 떨어지고 발열은 더 늘었기에 이 CPU를 '프레스핫'이라며 비아냥거리는 사용자들까지 생겼다.

공정 기술이 꾸준히 이론대로 발전할 것이라는 믿음이 있기에 태어난 넷버스트 아키텍처는 예상하지 못했던 공정 기술의 정체 상황을 만나 생명력을 서서히 잃어갔다. 앞으로 공정 기술의 발전은 점차 어려워지고, 그 성과 역시 생각보다 작을 것이라는 비관적인 전망이 반도체 업계 전체를 휘감았고 인텔은 결국 65nm 공정 펜티엄 4 계획(일명 테자스)을 버리고 조금씩 개발을 하던 새로운 아키텍처를 빠르게 현실로 옮기는 결정을 내렸다. 테자스 프로젝트의 포기는 반도체 산업 전체가 속도 만능 시대의 환상에서 깨어날 시간이 되었음을 의미하는 신호가 되었다.


◆ 코어 아키텍처 시대: 에너지 효율성을 생각한 새로운 패러다임의 시작

공정 기술의 정체는 CPU의 최대의 적인 발열과 높은 전력 소비량 문제를 낳았고, 때마침 불어닥친 전 세계적인 에너지 절약 열풍은 속도 만능 주의를 버리고 CPU 아키텍처를 ‘효율성’ 위주로 바꾸게 만드는 힘이 되었다. 인텔 역시 그러한 흐름에 맞춰 여러 가지 한계를 보이던 넷버스트 아키텍처의 대안을 조심스럽게 준비했다. 그것이 바로 ‘코어 아키텍처’다.

코어 아키텍처는 펜티엄 4 시절에 나온 노트북 PC용 CPU, 펜티엄 M에서 쓰던 ‘배니어스 아키텍처’에 뿌리를 둔다. 펜티엄 M은 펜티엄 III가 쓰던 P6 아키텍처를 뿌리를 두고 펜티엄 4의 장점인 빠른 시스템 버스와 멀티미디어 기술을 더했는데, 속도는 펜티엄 4에 한참 미치지 못했지만 성능은 펜티엄 4에 그리 뒤지지 않고 전력 소비량도 적어 인기가 많았다.

2006년 코어2 듀오의 발표와 함께 첫 선을 보인 코어 아키텍처는 P6 아키텍처를 그 어머니로서 삼고 있지만 P6를 그대로 쓰지 않고 P6와 넷버스트의 장점을 더욱 좋은 방향으로서 이끌어냈다. P6 시절보다 조금 늘어난 14 단계 수준으로서 줄인 파이프라인 단계는 CPU 작동 속도를 2GHz 이하로서 끌어 내렸지만, 전력 소비량을 줄이고 실제 성능을 두 배 가까이 작동 속도가 빠른 빠른 펜티엄 4 수준까지 끌어 올렸다. 여기에는 명령 처리의 효율성을 높인 Micro-Ops 설계와 프레스캇 코어 펜티엄 4 CPU에서 선보인 SSE3 멀티미디어 기술, 넉넉한 2차 캐시 메모리, 그리고 펜티엄 4에서 가져온 고속 쿼드 펌프 시스템 버스의 역할이 컸다. P6 아키텍처에 없던 이러한 추가 기술은 코어 아키텍처를 ‘P6 아키텍처의 재탕’이 아닌 ‘P6와 넷버스트 아키텍처 모두의 공식 후계자’로서 인정할 만큼 좋은 성능을 보여 주었다. 1.86GHz 속도를 갖는 코어2 듀오가 2.8GHz  속도를 내는 펜티엄 4 또는 펜티엄 D보다 성능이 좋을 정도로 코어 아키텍처의 모험은 성공을 거두었다.

또한 펜티엄 D CPU에서 처음 선보였고 코어2 듀오에서 널리 쓰인 듀얼코어 기술은 코어 하나의 성능에 목을 매달던 과거의 CPU와 다른 ‘멀티 코어(Multi-Core)’ 설계를 대세로서 만드는 신호탄이 되었다. 무어의 법칙이 무너지고 앞으로의 공정 기술 발전이 생각보다 효과가 적을 것이라는 부정적인 신호는 CPU의 기본 아키텍처의 개선만으로 성능을 높이는 것 역시 한계가 올 것이라는 생각을 낳았고, 그 대안이 서버 CPU에 쓰이던 SMP(Symmetric Multi-Processing, 대칭형 멀티프로세싱) 기술을 줄인 멀티코어 기술이다.

CPU를 두 개 또는 그 이상 병렬로서 연결하는 SMP는 비록 절대 작동 속도는 빨라지지 않지만 한 번에 많은 작업/스레드를 처리할 수 있어 많은 작업을 동시에 하거나 멀티 스레드 설계를 한 작업을 하면 CPU 하나를 쓸 때보다 성능이 좋아진다. 듀얼코어는 CPU 두 개를 하나의 기판 위에 올린 것으로서 보이기에는 하나의 CPU에 불과하지만, 운영체제에서는 두 개의 CPU로서 판단하며, 실제로 두 개의 CPU와 같은 일을 한다. 펜티엄 4에 선보인 하이퍼스레딩도 CPU는 두 개로서 보이지만, CPU의 남는 성능을 활용해 가상 CPU를 만드는 것이기에 듀얼코어와는 다르다. 진짜 CPU가 두 개 들어간 것이기에 사진/영상 편집 등 멀티 스레드 설계가 제대로 이뤄진 프로그램은 비교하기 어려울 정도로 좋은 성능을 낸다.

i005.jpg
코어 아키텍처 CPU는 '같은 전력 소비량 대비 최고 성능'을 목표로 만든,
속도 지향 정책을 포기한 최초의 CPU가 된다

작동 속도를 높이는 데 집착하던 P6나 넷버스트 아키텍처와 달리 과거의 아키텍처의 장점만을 살린 기본 구저와 멀티코어 기술을 바탕으로 한 코어 아키텍처 CPU는 철저히 ‘에너지 효율성’을 따졌다. 코어2 듀오 CPU는 열 설계 전력(TDP)는 65W 수준에 불과하지만 과거의 130W 이상 수준의 펜티엄 D CPU 이상의 성능을 냈으며, 줄어든 발열은 쿨러의 소음까지 줄여 ‘조용하고 유지비 부담이 적은 CPU’라는 좋은 기억을 남겼다. 이후 인텔은 작동 속도 위주의 CPU 개발 원칙을 버리고 ‘같은 전기를 쓰면서 성능이 좋은 CPU’를 만드는 데 모든 힘을 쏟았다.  이러한 설계 원칙은 지금의 코어 i5, i7에도 변함이 없다.


■ 틱 & 톡 – 두 단계의 인텔 CPU 진화 과정

하나의 아키텍처를 쓰는 CPU는 아무런 변화 없이 그 일생을 보내지 않는다. 작은 설계 변화를 주기도 하고 공정 기술을 바꾸기도 하면서 작동 속도를 높이고 전력 소비량을 줄이기도 한다. 인텔은 2007년부터 CPU를 내놓을 때 큰 변화와 작은 변화를 반복하는 CPU 개발 전략을 쓰고 있는데, 그것을 ‘틱 & 톡(Tick-Tock)’이라고 부른다.

‘틱’은 공정 기술의 변화를 말한다. 이미 시장에서 팔리고 있는 아키텍처의 작동 속도와 전력 효율성을 높이고, 새로운 기술의 CPU를 더욱 널리 퍼트리는 역할을 한다. 반대로 ‘톡’은 아키텍처 그 자체의 변화를 뜻하며 새로운 기술을 원하는 마니아들이나 전문가들의 입맛에 많는 제품을 내놓는다. 다시 이 시기가 지나면 그 아키텍처를 쓰는 새로운 공정의 마이너 업그레이드 모델을 내놓는 ‘틱’ 작업에 들어간다.

원래 틱 & 톡이 공식화된 것은 2007년의 이야기이나, 그 뿌리는 이 보다는 더  길다. 펜티엄 M을 쓴 노트북 PC용 플랫폼 기술, ‘센트리노’는 틱 & 톡을 공식화하기 이전부터 이와 비슷한 변화를 준 바 있다. 종전 플랫폼에서 CPU에만 변화를 준 ‘리플래시’ 플랫폼을 내놓고 그 뒤에 새 플랫폼을 내놓는 것은 CPU의 틱 & 톡 전략과 이어진다.

i006.jpg
공정 기술이나 아키텍처가 시장에서 '사고'를 치는 일은 드물지 않다.
레이디언 HD 4770처럼 공정 기술에 문제가 생기는 일은 의외로 잦다.

공정 기술을 발전시킨 마이너 업그레이드 모델과 새 아키텍처 CPU를 교대로 내놓는 이유는 최신 기술을 따르는 선도층과 그 기술을 활용한 업그레이드 모델을 선호하는 추종 계층을 모두 만족하기 위한 것도 있지만, 그 보다는 ‘위험 분산’의 효과가 더 크다. 넓은 검증을 받지 못한 새로운 공정 기술과 새 아키텍처는 어떤 문제가 드러날지 알 수 없는 위험을 늘 안고 있다. CPU 문제는 아니지만 요즘 터진 공정 기술이나 아키텍처의 실패 사례로서 들 수 있는 것이 ATI 레이디언 HD 4770인데, 검증을 받지 못한 40nm 공정 기술을 처음 쓴 결과, 수율(한 장의 웨이퍼에서 정상적인 역할을 하는 반도체가 나오는 정도)이 매우 낮아 전 세계적인 그래픽카드 품귀 현상을 빚었고, 큰 기대가 큰 실망으로 바뀌는 최악의 결과를 가져왔다.

공정 기술과 아키텍처를 한 번에 바꾸는 것은 이와 같은 위험 부담을 두 배 또는 그 이상으로서 늘리는 폭탄같은 존재가 되기 쉽다. 아키텍처에 결함이 있거나 성능이 생각보다 낮은 경우, 여기에 새로운 공정 기술이 생산 능력에 문제를 일으키기까지 한다면 아무리 인텔이라도 그 손실을 쉽게 회복하기가 어렵다. 틱 & 톡은 이러한 위험을 줄이는 효과가 있으며, 소비자에게도 최신 기술을 큰 탈 없이 손에 넣을 수 있도록 돕는다.

이번에 새로 나온 코어 i5와 i7, 코드명 ‘린필드’는 인텔의 전략 가운데 ‘톡’에 해당하는 것이다. 인텔의 ‘톡’은 코어 i7 900 시리즈(코드명 블룸필드)을 그 시작으로 하지만 이 CPU는 새로운 기술, 네할렘 아키텍처에 대해서는 검증을 받는 데 성공했지만 전문가가 아닌 보통 데스크탑 PC 시장에 자리를 잡은 모델은 아니다. 코어2 쿼드를 대신해 중급 데스크탑 PC 시장에 네할렘 아키텍처를 퍼트리는 임무는 린필드 코어 CPU가 맡으며 그러기에 린필드 코어는 ‘틱’이 아닌  ‘톡’의 연장선으로서 생각해야 한다. 이 CPU가 자리를 잡는 내년에 네할렘 아키텍처를 바탕으로 공정 기술을 한 차원 끌어 올린 새로운 ‘틱’, 코드명 ‘웨스트미어’가 나올 계획이다.


CPU 모델명(코드명)

아키텍처

공정 기술

펜티엄 D(프레슬러)

넷버스트

65nm

코어2 듀오/쿼드(콘로/켄츠필드)

코어

코어2 듀오/쿼드(울프데일/요크필드)

45nm

코어 i5/i7(린필드/블룸필드)

네할렘

명칭 미정(웨스트미어)

32nm

명칭 미정(샌디브릿지)

샌디브릿지

댓글 없음:

댓글 쓰기