Зміст

  • Інтегрована графіка: перші кроки
  • Повна інтеграція і проблеми пам’яті
  • Kaby Lake-G: дискретно-інтегрована графіка
  • Конфігурація тестових стендів
  • Методика тестування
  • iXBT Application Benchmark 2017
  • Енергоспоживання та енергоефективність
  • iXBT Game Benchmark 2017
  • Разом

Методика тестування комп’ютерних систем зразка 2017 року

Перші новини про можливу появу на світ процесорів Intel з графікою AMD з’явилися приблизно за рік до самих процесорів і викликали (що природно) масу чуток і спекуляцій. Всі вони припинилися в цьому році — разом з фактичним появою процесорів сімейства Kaby Lake-G, але виявився досить насиченим і в цьому плані: незважаючи на те, що багатий був і іншими подіями. Тепер настав час намагатися зазирнути у майбутнє (наприклад, у зв’язку з планами Intel повернутися на ринок дискретних GPU — вже зрозуміло, якими можуть бути перші використовують їх продукти; і це зовсім не відеокарти), а також вивчати поточні моделі… Але є сенс і трохи зазирнути в історію — адже насправді робота над цим рішенням почалася зовсім не в 2017 році і навіть не в 2016. Швидше за все, сталося це не пізніше 2015 року. А щоб зрозуміти — як і навіщо нам взагалі варто повернутися років на 20-30 тому.

Інтегрована графіка: перші кроки

Можливо, комусь із наших читачів буде складно в це повірити, але колись усі графічні рішення, що застосовуються в персональних комп’ютерах, були виключно інтегрованими. Не в сучасному сенсі слова, коли взагалі все виходить упакувати в один напівпровідникової кристал — перші персоналки, з точки зору сучасності архаїчні як паровоз Стефенсона, вимагали використання сотень мікросхем, а то і тисяч таких. Просто ніякого «GPU» в них не було — цей термін з’явився набагато пізніше. А вся обробка будь графіки виконувалася виключно силами центрального процесора. Причому в перших платформах вся вона обмежувалася системної ж пам’яттю, ємність якої вимірювалася лише десятками кілобайт — на все про все. Загалом, єдине, що в тодішніх системах можна було віднести власне до графіку — деяка кількість мікросхем, які займаються безпосереднім висновком відеосигналу назовні. А графічні характеристики будь персоналки були невід’ємною частиною використовуваної в ній платформи.

Це було вірно і для перших модульних ПК, типу Apple II, де поняття карт розширення вже з’явилося, але графіка залишилася прерогативою платформи. Створюючи ж перші PC, компанія IBM цей підхід поглибила і розширила. Не від хорошого життя — просто основним ринком для цих комп’ютерів вважався «діловий», де на той момент взагалі обходилися чорно-білим (частіше, втім, чорно-зеленим) текстом. Кольорові ж графічні монітори були або дуже дорогими, або мали невисоку якість зображення (побутові ПК і зовсім орієнтувалися на використання телевізорів — так дешевше; нехай і якість ніяке), або і те, і інше відразу, але відмовлятися принципово від можливості їх використання було б не дуже правильним рішенням. Ось і не стали. Заклавши в варіанти комплектації першої «пісішкі» можливість поставки з однієї з відеокарт, а, може бути, і відразу двома — працювати адаптери MDA і CGA могли паралельно і не заважаючи один одному, благо використовували різні монітори (причому несумісні один з одним). Перший забезпечував відображення якісного монохромного тексту, у другого з символами було гірше, зате підтримувалися графічні режими — з роздільною здатністю до 640×200 і числом квітів до чотирьох, але не одночасно.

В принципі, і той, і інший відеоадаптери можна було б просто «припаяти» до плати, що не було зроблено тільки через необхідність хоч трохи заощадити. Але такий підхід принципово закріпив ідею, що в персональному комп’ютері можуть бути різні відеоадаптери. Що пізніше дозволило випускати на ринок їх поліпшені версії, типу EGA або VGA. Останній, до речі, у власних комп’ютерах IBM вже як правило інтегрувався на плату. Аналогічним чином діяли й інші великі виробники — так виходило дешевше. Але, природно, інтеграція була саме простий і «лобовий»: просто ті ж чіпи розташовувалися не на платі розширення, а прямо на системній. Зі зрозумілих причин особливих виграшів такий підхід не обіцяв, так що надто масовим не ставав. Тим більше, що і технології почали розвиватися досить бурхливо…

Першим дзвіночком виявилося впровадження графічних операційних систем, різко підвищило вимоги до відеосистеми. Хоча б тому, що режими з низьким дозволом і кількістю квітів для такого підходили погано, так що треба було збільшувати обсяги пам’яті, який почав іноді вважатися в мегабайтах. Та й підвищувати обчислювальні потужності теж — щоб «розвантажити» центральний процесор, знявши з нього купу типових операцій: типу перетаскування вікон (що вирішувалося пересиланнями даних всередині пам’яті) та/або підтримки курсору миші. Перші Windows-акселератори за мірками сучасності були дуже простими, але зі своїми завданнями непогано справлялися. Правда от швидко виявилося, що і звичайна системна шина ISA для них недостатня — краще освоїти щось більш швидке. Наприклад, VLB чи PCI. Загалом, цей сегмент почав бурхливо розвиватися, роблячи відеокарти ще одним видом обладнання, схильним до апгрейду — поряд з центральними процесорами.

Тим більше, що з цього моменту зникли проблеми сумісності, раніше сильно стримують. Просто тому, що останнє у часи DOS працювало з обладнанням безпосередньо, так що до кінця днів існування останньої системи в основному орієнтувався на VGA як на найменший спільний знаменник. В принципі, вже в 1989 році була створена асоціація стандартизації відеоелектроніки (VESA), через два роки запропонувала ринку стандартні розширення відео-BIOS з підтримкою режимів «SuperVGA» (тобто всього того безладу з виходять за рамки VGA можливостями), але на їх доведення до розуму і освоєння «залізі» теж потрібен час. А тут як раз прийшла вже Windows 95 і іже з нею, де робота прикладного програмного забезпечення була відокремлена від обладнання товстим шаром системного ПО. Що дуже сильно допомогло «видеореволюции», оскільки від виробників була потрібна лише реалізація стандартів (в т. ч. і 3D API) в драйверах, а самі відеокарти могли бути дуже різними — і апаратних можливостей, і по продуктивності.

Повна інтеграція і проблеми пам’яті

Приблизно до тих же років відноситься і появу дійсно інтегрованих (в сучасному розумінні слова) відеорішень. Як це співвідносилося з прогресом? Та дуже просто — виявилося, що повний набір можливостей топових GPU потрібний далеко не всім користувачам, так що ринок швидко почав розшаровуватися по сегментам. Найбільш потужні (як зараз прийнято говорити «флагманські») відеокарти бадьоро ставали все більш навороченими, але і більш дорогими. Старі цінові позиції при цьому не порожніли, а займалися пристроями нового покоління, але порівнянними по можливостям з минулими «флагманами», а то і перевершують їх. При цьому виявилося, що потреби багатьох користувачів рости слідом за ринком не збиралися — людям потрібна «просто» відеокарта як перехідник до монітора. Звичайно, і ці «перехідники» повинні були еволюціонувати, але лише слідом за іншими компонентами, а не випереджаючи їх. А ось коштувати при цьому повинні були максимально дешево.

Як отримати шукане? Для цього достатньо взяти типовий GPU і викинути з нього все «зайве», чим є все, відмінне від життєво-необхідного. А всі життєво-необхідне по можливості слід розділяти з іншими компонентами. Наприклад, не потрібна окрема відеопам’ять — адже в системі вже встановлено певний обсяг ОЗУ, яким і слід користуватися. Відповідно, не потрібен і окремий контролер пам’яті — такий вже є в чіпсеті (пізніше — процесорі). Ось туди ж інтегруємо всі залишилися після першого етапу транзистори, отримавши в підсумку практично безкоштовне рішення. Ні, зрозуміло, якісь витрати на ці квадратні міліметри будуть — але на тлі відеокарти навіть початкового рівня, що включає в себе декілька мікросхем, шматок друкованої плати, витрати на складання кінцевого продукту і т. п. це копійки. Які в підсумку ще й можна розмазати «тонким шаром на всіх покупців. У результаті кожен з них віддасть, припустимо, долар — чого не помітить. Але ті клієнти, яким інтегрованого рішення достатньо, заощадять як мінімум 20-40 доларів, а це вже помітно. Кому недостатньо, той все одно буде купувати дискретну відеокарту за кілька десятків (або вже сотень доларів, так що потенційна економія на відсутність інтегрованої графіки його все одно не врятувала б.

У результаті вже перші інтегровані рішення швидко почали набирати популярність — виявилося, що їх, дійсно, досить багатьом. Наприклад, офісним користувачам, вимоги яких до відеосистеми завжди знаходилися на рівні плінтуса, а ось економія при закупівлі десятків комп’ютерів вже була помітною. Причому і забезпечуваний IGP «плінтус» поступово зростав, адже всі витрати були всього лише на додаткові транзистори, які в міру вдосконалення техпроцесів дешевшали, так що їх кількість можна було збільшувати, навчаючи графічні ядра нових фокусів. Зрозуміло, про пряму конкуренцію з топовими GPU мова не йшла — ті швидко обігнали процесори по площі і енергоспоживанню, а вбудувати «більше» в «менше» без допомоги магії неможливо, але це і не потрібно. І не тільки в офісах — адже, наприклад, старі ігри нікуди не зникали після закінчення продажів. Але, якщо під час життєвого циклу їм потрібні серйозні відеокарти, то через кілька років виявлялося, що і інтегрованою достатньо. А для людини, який не пройшов якийсь перший Far Cry відразу після його появи, такий залишався цілком «нової» грою до самого моменту проходження. Хоча якщо і пройшов — міг захотіти повторити пізніше.

Загалом, інтегрована графіка захоплювала нові плацдарми. По мірі цього скорочувалися продажу молодших дискретних відеокарт, так що для збереження рівня доходів виробники останніх змушені були постійно підвищувати ціни на «не молодші». А це в свою чергу привертало до IGP увагу все нових і нових потенційних покупців.

Але були у цієї ідилічної картини і недоліки, найважливішим з яких виявлялася проблема пам’яті. Дійсно — ми вже домовилися, що для здешевлення власної відеопам’яті не буде, а буде тільки системна. Перший час це не заважало, але по мірі збільшення продуктивності GPU зростали і їхні вимоги до ємності та швидкості пам’яті. У дискретних відеокартах це вирішувалося розширенням шини та швидким переходом до нових стандартів, системна пам’ять завжди була більш консервативною. Зокрема, вже багато років тому максимумом для масових платформ стала шина, шириною 128 біт — два канали. У HEDT або, тим більше, серверах буває й більше — вже до шести каналів, тобто 384 біта, що можна порівняти з топовими відеокартами. Але зробити це масовим рішенням не можна — дорого. Так і доведеться купувати відразу декілька модулів пам’яті, що теж ціну м’яко кажучи не знижує. У підсумку ідея повністю суперечить головній меті інтеграції: мінімізації ціни.

Можна підвищувати частоти, що у відеокартах робиться. Але для системної пам’яті і цей метод не дуже застосовний, оскільки висока частота відеопам’яті досягається багато в чому завдяки відмові від контролю помилок. Останні не надто критичні — у гіршому випадку з’являться артефакти зображення (добре помітні при ручному перерозгоні пам’яті) та й все. А ось якщо почнуть давати збої програми — користуватися комп’ютером стане неможливим. Та й для окремих слотів пам’яті (замість простого припаивания чіпів до основної плати) проблему тактових частот тільки посилює. Тому найкраще, що можна забезпечити інтегровану графіку при прямолінійному підході — рівень найдешевших відеокарт. Мультимедійних, а не ігрових. Але хотілося б грати в ігри…

«В повний зріст» ця проблема постала після появи платформи AMD FM1, оскільки в Llano компанія вбудувала непогане по тим часам відеоядро: на рівні власних дискретних рішень середнього рівня. А от з пам’яттю все було гірше: інтегрований Radeon HD 6550D (використовувався в процесорах лінійки А8) обходився в кращому випадку DDR3-1866, що приблизно відповідало Radeon HD 5570 (DDR3-1800), але було вдвічі гірше, ніж GDDR5-4000 Radeon HD 5670. При цьому кількість графічних процесорів, їх частота, а також ширина шини пам’яті у цих рішень були співставні. В ідеалі порівнянні — на жаль, APU AMD виявилися (та й зараз залишаються) надто вже «дураконеустойчивыми»: надто вже легко зіпсувати формальні характеристики. Наприклад, більшість готових комп’ютерів на цій платформі продавалося з одним модулем DDR3-1600, а то і DDR3-1333 — тому, що так дешевше. У підсумку покупець комп’ютера отримував трохи не те, що він міг бачити в оглядах. За що кляв і матюкав як їх авторів, так і компанію AMD… роздрібного продавця лише остільки-оскільки вже, хоча саме йому і варто пред’являти претензії.

У наступних лінійках проблема не зникла — тільки посилилася, оскільки вони отримали ще більш продуктивні GPU, але при тій же ПСП навіть номінально. Пізніше продуктивність графіки знову помітно збільшили з переходом на нову архітектуру, а номінальна частота пам’яті підросла на 15%. Реальна ж як вже було сказано вище вела себе по-всякому: змусити збирачів для початку бюджетного сегмента використовувати більш дорогі конфігурації AMD не могла. При цьому, що цікаво, більш дорогі «ігрові» комп’ютери від таких проблем не страждали — їм це не заважало. І навіть якщо «не зовсім ігрові», але з дискретною відеокартою — теж. Зрозуміло, що виробники з молодшими моделями останніх мухлювали по-всякому, занижуючи частоти щодо офіційних зокрема, але якась передбачуваність була. А ось з інтегрованою графікою — не було. Що сильно «било» по популярності останньої за межами того самого рівня плінтуса».

Продукція компанії Intel довгий час від подібних проблем не страждала, оскільки цей виробник орієнтувався саме на цей рівень — працює і добре. Замість цього виробник намагався максимально наситити ринок хоча б такими графічними рішеннями, вбудовуючи їх у всі масові процесори. Це давало свої плоди — багатьом користувачам вистачало (особливо у якому-небудь Celeron, який весь коштував дешевше будь-якої відеокарти, але при цьому ще й як-то працював), а інші дискретні рішення докупали, все одно не псуючи Intel статистику продажів. Однак компанії теж довелося збільшувати потужність вбудованої графіки — через переорієнтації ринку на портативні комп’ютери, куди дискретна графіка «лізла» погано. Вірніше, класичний ноутбук містилася — але ось в ультрабук або планшет вже не дуже. Тому і систему пам’яті потрібно якось «розворушити», але не екстенсивним шляхом — надто вже багато на останньому було граблів. Вибрали інтенсивний — додавши частина процесорів сімейства Haswell додатковий рівень кеш-пам’яті на базі окремого кристала eDRAM. Невеликої ємності (всього 128 МБ), зате швидкої. На перших порах рішення здавалося правильним — продуктивність Haswell з GPU GT3e виявилася дуже високою: принаймні не поступається рішенням AMD навіть при використанні останніх «в кращому вигляді». З дуракоустойчивостью ж і енергоспоживанням справи йшли краще, ніж в APU. Крім того, четвертий рівень кеш-пам’яті могли використовувати і процесорні ядра, що в ряді додатків забезпечувало додатковий приріст продуктивності і поза зв’язку з графікою. Тому вирішено було зробити це напрямок магістральним.

І, незабаром, перерешить. У Haswell 2013 року спільно з 40 графічними конвеєрами результат був відмінним. У Broadwell їх кількість збільшили до 48 — і теж з непоганим підсумком. У Skylake компанія спробувала зробити великий стрибок, збільшивши кількість графічних конвеєрів до 72, але продуктивність GT4e в іграх, раптово, не збільшилася. Більше того — вона виявилася зіставною з GT3e CULV-процесорів цього сімейства, хоча останні являли собою лише половинку старших моделей: два ядра, а не чотири, 64 МБ eDRAM, а не 128 МБ… енергоспоживання ж і зовсім відрізнялося приблизно в три рази. У підсумку GPU лінійки Iris так і залишилися тільки в цьому сімействі і практично не змінилися при переході від Skylake до Kaby Lake, а для потужних, але компактних комп’ютерів, компанія почала шукати принципово інші рішення. Не пізніше 2015 року, повторимося, може, навіть, і раніше. Правда, з-за принциповість змін результату довелося чекати досить довго, хоча в принципі рішення лежало на поверхні.

Kaby Lake-G: дискретно-інтегрована графіка

Можна вважати GPU цієї лінійки «інтегрованим» — питання дискусійне: все-таки для нього використовується окремий чіп, та ще й 4 ГБ власної пам’яті HBM2 присутній. З іншого боку, багатокристальні складання на одній підкладці для Intel давно не рідкість — як мінімум з 2010 року, коли з’явилися процесори сімейств Clarkdale/Arrandale. Було в них два чіпа — власне процесорний і колишній північний міст, який включає в себе GPU. При цьому компанія вважає саме ці лінійки процесорів своїми першими рішеннями з інтегрованою графікою. Відповідно, і Kaby Lake-G можна вважати такими. А що стосується кількості чіпів, то в Haswell, Broadwell, Skylake і Kaby Lake з графікою Iris Plus/Pro їх вже на одній підкладці було три: процесор, південний міст і eDRAM. Двома (без останнього) обходилися моделі з GPU HD Graphics.

Ті ж чіпи присутні і в цій лінійці — процессорно-чіпсетна частина Kaby Lake-G повністю ідентична ноутбучним Kaby Lake-H: процесор Kaby Lake і південний міст НМ175. Зараз ці процесори вже замінюються на Coffee Lake-H, де кількість обчислювальних ядер може досягати шести — таку ж операцію можна провести і з –G-сімейством. Благо змінювати для цього навряд чи щось доведеться — зв’язок «процесора» з GPU здійснюється не за допомогою якихось складних інтерфейсів, а за допомогою звичайного (нехай і трохи розігнаного) PCIe. Відповідно, можна замінювати будь-яку частину, хоча ми не здивуємося, якщо це рішення виявиться тимчасовим — недарма ж все більше і більше інформації про з’являється власних графічних GPU Intel. Буде компанія виходити з ними на ринок дискретних відеокарт або обмежитися контрольованим цілком і повністю сегментом? Покаже час. Але на користь другої версії доводів багато. Тим більше, в цьому випадку можна і щось придумати з межчиповым інтерфейсом, і спеціалізований процесорний кристал випустити. І контролер PCIe, до речі, не треба буде ні йому, ні GPU — це теж може виявитися корисним.

Поки ж у процесорах використовується графіку від AMD, але на додаток до власного (традиційному для Kaby Lake) відеоядру HD Graphics 630. «Зовнішній» GPU — спеціалізований замовний. Називається Radeon RX Vega M (і існує в двох модифікаціях: GL і GH), хоча дуже багато доказів на користь того, що це Polaris — попередня версія мікроархітектури GPU AMD. З урахуванням тривалого циклу розробки — дивно. З іншого боку, є і факти, що дозволяють стверджувати, що це дійсно Vega. У будь-якому випадку, мова йде про спеціальному замовний чіпі, причому за твердженнями представників Intel їм зовсім не обов’язково повинна була бути розробка AMD — просто ця компанія зуміла запропонувати більш вигідні умови, ніж один її відомий конкурент.

На ділі, звичайно, більш важливо, що зможе на практиці отримати покупець — пізніше ми це оцінимо. А поки подивимося, на що можна розраховувати в теорії, порівнявши обидві модифікації GPU з дискретними рішеннями лінійки Radeon RX 500 (що більш ніж коректно, якщо це раптом і правда Polaris, а не Vega) і з графікою APU Ryzen 3 2200G (Vega 8) і Ryzen 5 2400G (Vega 11).

RX 550
RX Vega 8
RX Vega 11
RX 560
RX Vega M GL
RX Vega M GH
RX 570
Кількість ALU

Частота ALU, МГц

Кількість ROP

Шина пам’яті, біт

Частота пам’яті, МГц

ПСП, ГБ/с

5125127041024128015362048
1100110012501175101111901168
168816326432
12812812812810241024256
7000293329337000140016007000
11246,946,9112179,2204,8224

В принципі, останнього рядка достатньо, щоб зрозуміти — APU прекрасні невисокою ціною, але від них важко чекати високої продуктивності: ПСП вдвічі нижче, ніж у дискретних рішень. А ось Vega M, навпаки, з цієї точки зору просто чудова, оскільки кожному ALU дістається більше, але от вартість пам’яті HBM2 дуже висока. Власне, тому її тут лише 4 ГБ, хоча в дискретному 570 може бути і 8 ГБ — зате більш дешевої GDDR5. З іншого боку, 550/560 можуть забезпечуватися і 2 ГБ пам’яті, а APU більше двох і не адресують. Втім, з такою ПСП і кількістю ROP їм, мабуть, більше і не потрібно — на ділі навіть RX 550 краще у всьому, крім ціни. А ось Radeon Vega M в будь-якому вигляді класом вище, ніж Radeon RX 560. Не так вже багато — але і не так вже мало. Враховуючи, що ці процесорні складання в першу чергу орієнтовані на використання в ноутбуках, так що мають обмежений теплопакет. Та й досить компактні якраз завдяки використанню пам’яті HBM2 — ось для зв’язку останньої з GPU використовується фірмовий інтерфейс EMIB. Цілком можливо, повторимося, саме на нього цілком і повністю перейдуть спадкоємці Kaby Lake-G, які стануть у підсумку «ще більш інтегрованими.

Конфігурація тестових стендів

Процесор
Intel Core i7-8705G
Intel Core i7-8809G
Назва ядра

Технологія виробництва

Частота ядра, ГГц

Кількість ядер/потоків

Кеш L1 (сум.), I/D, КБ

Кеш L2, КБ

Кеш L3, Міб

Оперативна пам’ять

TDP, Вт

GPU

Kaby Lake-GKaby Lake-G
14 нм14 нм
3,1/4,13,1/4,2
4/84/8
128/128128/128
4×2564×256
88
2×DDR4-24002×DDR4-2400
65100
Radeon Vega M GL + HD Graphics 630Radeon Vega M GH + HD Graphics 630

Що ж стосується практичних випробувань, то нам дісталися дві моделі Kaby Lake-G, використовувані компанією Intel в нових NUC. Відповідно, ми їх і протестуємо. Зазначимо, що відрізняються вони фактично тільки GPU — але через це старша модель отримала більш широкий теплопакет, що на реальних тактових частотах процесорних ядер теж може позначитися благотворно. У всякому разі тоді, коли дискретний GPU не використовується або слабо навантажений: значення в 65 і 100 Вт, звичні для настільних процесорів, у даному випадку відносяться до всієї збірки.

Процесор
AMD Ryzen 5 2400G
Intel Core i7-5775C
Intel Core i7-7700
Назва ядра

Технологія виробництва

Частота ядра, ГГц

Кількість ядер/потоків

Кеш L1 (сум.), I/D, КБ

Кеш L2, КБ

Кеш L3 (L4), Міб

Оперативна пам’ять

TDP, Вт

GPU

Raven RidgeBroadwellKaby Lake
14 нм14 нм14 нм
3,6/3,93,3/3,73,6/4,2
4/84/84/8
256/128128/128128/128
4×5124×2564×256
46 (128)8
2×DDR4-29332×DDR3-16002×DDR4-2400
656565
Vega 11Iris Pro Graphics 6200Radeon RX 480

Ось з чим порівнювати — питання складне, оскільки інші ноутбучні рішення такого роду ми не тестували. Що ж — доведеться обмежитися більш звичними настільними. Наприклад, Ryzen 5 2400G — це не прямий конкурент, але найкраща реалізація «класичної» інтегрованої графіки. А Core i7-5775C — практично вона ж, але у виконанні Intel. І безкомпромісний варіант: Core i7-7700 + Radeon RX 480. Зрозуміло, що нам би більше підійшли RX 560 570 (чому — зрозуміло з таблиці з ТТХ), але під рукою не виявилося. З іншого боку, «оцінка зверху» теж не зашкодить.

Оточення ми намагалися зробити однаковим, «танцюючи» від NUC — в них можна використовувати тільки накопичувачі формату М. 2, а енергоспоживання вимірне тільки засобами моніторингу. На жаль, як з’ясувалося, працює він тільки для «процесорної частини», навіть у ті моменти, коли до роботи «підключається» GPU. З іншого боку, для Ryzen і такого не вийшло. Компанія AMD реалізувала в нових процесорах багато різних датчиків, але не один, судячи з усього, не дозволяє стежити за всією SoC. А той, який називається співзвучно таким призначенням, примудряється видавати значення більші, ніж отримує вся плата з процесором і пам’яттю від блоку живлення, що, очевидно, не має фізичного сенсу. Загалом, поки ми моніторинг на АМ4 перемогти не змогли. Сподіваємося, що історія з попередніми платформами AMD, де і «перемагати» нічого, не повториться, інакше тестувати ноутбуки після їх появи буде занадто сумним заняттям.

В результаті повторно тестувати Ryzen 5 2400G і Core i7-5775C в оновленому оточенні ми не стали — дані по продуктивності взяли з «основної лінійки» тестів, а за енергоспоживання прийняли те, що надходить по лінії +12 Ст. Для LGA1150 і LGA1151 ці дані точно збігаються з показниками моніторингу, так що ми продовжуємо виходити з припущення, що і для АМ4 такі вимірювання вірні — перевірити їх зараз все одно поки нічим з-за описаній ситуації з датчиками. Впливом SSD вирішено було знехтувати, оскільки Core i7-7700 ми спільно з Intel 760p на 512 ГБ якраз і протестували — після чого переконалися, що як він, так і Radeon RX 480 на результати порівняно з «просто» процесорної графікою і звичайно використовуваним Corsair Force LE 960 ГБ не позначаються: розбіжність в межах 5%. Але на діаграмах ми на всякий випадок Ryzen 5 2400G і Core i7-5775C «намалюємо» трошки осторонь від інших учасників тестування.

Методика тестування

Методика докладно описана в окремій статті. Тут же коротко нагадаємо, що вона базується на наступних чотирьох китах:

  • Методика вимірювання продуктивності iXBT.com на основі реальних додатків зразка 2017 року
  • Методика вимірювання енергоспоживання при тестуванні процесорів
  • Методика моніторингу потужності, температури і завантаження процесора в процесі тестування
  • Методика вимірювання продуктивності в іграх зразка 2017 року

Детальні результати всіх тестів доступні у вигляді повної таблиці з результатами (у форматі Microsoft Excel 97-2003). Безпосередньо ж у статтях ми використовуємо вже оброблені дані. В особливості це відноситься до тестів додатків, де всі нормується щодо референтної системи (AMD FX-8350 з 16 ГБ пам’яті, відеокартою GeForce GTX 1070 і SSD Corsair Force LE 960 ГБ) і групується за сферами застосування комп’ютера.

На відміну від більшості «процесорних» тестувань, великий інтерес сьогодні представляють ігрові тести. Зазвичай для інтегрованих рішень ми обмежуємося тестами в мінімальному якості, однак для дискретних рішень (а в Kaby Lake-G як вже було сказано вище «інтегроване» практично таке) такі режими не мають високого сенсу. Тому більшість учасників тестування попрацювали і з налаштуваннями на максимальну якість — за винятком Core i7-5775C, що такі режими зовсім «не тягне». Як виявилося (але нас не здивувало), і про Ryzen 5 2400G можна сказати теж саме — деякі ігри на ньому в максимальній якості запускатися відмовляються, а деякі… краще б теж не запускалися. Але що є, то є.

iXBT Application Benchmark 2017

Зрозуміло, що ноутбучний Kaby Lake від настільного відрізняється тільки теплопакетом — і, відповідно, робочими тактовими частотами. Не в кращу сторону, так що обидва наших випробовуваних небагато, але відстали від Core i7-7700. З іншого боку, їх продуктивності більш ніж достатньо, щоб обігнати не менш настільні старі Core i7 або Ryzen 5 з тією ж кількістю ядер.

Результати ідентичні попередньої групи тестів. Що не дивно — так і повинно бути.

А ось в цих програмах розкид показників збільшився. Але пов’язано це з тим, що деякі з них вже «вміють» навантажувати роботою GPU, причому потужність чотирьохядерних восьмипоточных процесорів така, що і продуктивність останнього вже трохи, але позначається. Однак відносне положення випробовуваних, зрозуміло, залишається приблизно тим же, що і раніше: процесори сімейства Kaby Lake-G (як і лежать в їх основі Kaby Lake-H) трохи повільніше настільних моделей того ж покоління, але здатні обганяти більш старі і/або відмінні за мікроархітектурі пристрою.

В черговий раз здатна «вистрілити» відеокарта — але не в плані абстрактної продуктивності, а в зв’язку зі швидкістю обміну даними між CPU і GPU. Цей чинник взагалі дуже часто заважає використанню останніх у розрахунках за межами дуже спеціалізованих додатків накладні витрати на пересилку даних такі, що здатні «з’їсти» все прискорення. В цьому плані інтеграція процесорів різних типів з метою поліпшення зв’язку між ними дуже цікава — оскільки, як бачимо, вельми ефективна.

Повертаємося на грішну землю 🙂 Все, що потрібно цій програмі — побільше цілочисельних (і щодо простих) потоків обчислення, але не більше того.

А архіватори відразу показують різницю між прискоренням доступу до пам’яті за допомогою додаткових рівнів кешування і… просто виділенням для GPU: кеш четвертого рівня в Broadwell можуть використовувати і процесорні ядра. З користю для себе 🙂 Так що хотілося б побачити і розвиток цього підходу. Втім, тут топовий Kaby Lake-G все одно зумів трохи випередити свого настільного побратима, але не на багато — цілком можливо, що з самих модулів пам’яті (різних за зрозумілих причин — в NUC встановлюються SO-DIMM) вдалося вичавити трохи менші затримки.

Тим більше, що ось тут ми знову повертаємося на круги своя — невеликий, але швидкий L4 в Core i7-5775C дозволяє йому досі демонструвати високу продуктивність. При тому, що процесору вже три роки, взагалі-то. І там, де додатковим рівнем кешу скористатися не вдається, він зовсім не блищить — що ми не раз бачили вище.

У загальному і цілому ж, результат передбачуваний — ноутбучні Kaby Lake небагато, але повільніше настільних, хоча в принципі їх можна вважати належать до одного класу. З усіма його перевагами і недоліками — наприклад, всього чотири ядра можуть не дозволити вже в деяких сценаріях конкурувати з тими пристроями, де таких шість-вісім. Втім, зрозуміло, що оновити лінійку, взявши в якості основного кристала вже не Kaby Lake-H, а шестиядерний Coffee Lake-H з технічної точки зору не складно. Інше питання, що основне призначення цих процесорів — не демонстрація якихось рекордів продуктивності на звичайному х86-коді. Але з цим ми розберемося трохи пізніше.

Енергоспоживання та енергоефективність

Поки ж подивимося на енергоспоживання. Нескладно помітити, що програми моніторингу власне «процесорну частина і моніторять — датчики ті ж. Не сказати, що її споживання рекордно-низька (рекорди давно вже ставлять в основному двоядерні процесори), але нижче настільних моделей.

А ось продуктивність — навіть не завжди нижче. Тому процесори демонструють видатну енергоефективність, що дозволяє використовувати їх в ноутбуках — для чого і випускаються. При цьому молодша модель виглядає краще старшої, але так зазвичай і буває — з ростом частоти споживання енергії зростає швидше, ніж продуктивність.

iXBT Game Benchmark 2017

Основною ж перевагою 8809G над 8705G є більш потужний GPU. Втім, з мінімальними-то налаштуваннями в цій грі справляються і з запасом. Однак на максимальні запасу вже не вистачає навіть на RX 480 частота кадрів в Full HD знижується. Ryzen 5 2400G ж в такому випадку і зовсім «здувається» до 30 FPS — а адже це найкраще інтегроване відео на ринку! Якщо розглядати «інтегроване» в традиційному розуміння, оскільки у збірці Kaby Lake-G воно теж не зовсім дискретне, як вже було сказано вище 🙂 Але здатне забезпечувати комфортну гру і на максимальних налаштуваннях, причому і у високому дозволі теж — у всякому разі, Vega M GH це може.

У цій грі «замахуватися» на максимум поки зарано. З іншого боку, при зниженні роздільної здатності вже можна пограти — на Ryzen 5 2400G ще не можна. А найкраще з того, що було у Intel раніше, ще повільніше останнього.

В стратегіях архіважлива процесорна продуктивність — тому тут радикальне поліпшення якості картинки не так вже радикально «просаджує» продуктивність, так і від дозволу вона обмежена залежить. Втім, «класична» інтегрована графіка в кращому випадку справлялася з мінімальними налаштуваннями, та й то не завжди. Так само як і деякі ноутбучні дискретні відеокарти початкового рівня. Тому те, що на Kaby Lake-G взагалі-то можна вибрати і максимальну якість (хоча б в HD-дозволі) вже багато чого варте.

Дискретна відеокарта інтегрована в процесорну збірку, по поведінці і продуктивності залишається дискретною. Просто таке рішення виходить більш компактним і (в ідеалі) більш економічним, але залишається здатним на те, що недоступно інтегрованої графіки. За вже зазначеним на початку причин — пропускна здатність «системної» пам’яті поки недостатня для потужних GPU і навряд чи колись стане достатньою: вимоги до неї теж постійно ростуть. Поява APU на базі Ryzen хоча б дозволило грати в цю гру — але лише на мінімальних налаштуваннях. У Kaby Lake-G, природно, такої проблеми немає.

«Осилити» FHD в максимальній якості нашим випробуваним не вдалося, але не більше того — при тому, що більшість інтегрованих рішень (та й молодші дискретні) та для режиму мінімального якості в кращому випадку лише умовно придатні, це хороший результат.

Черговий приклад процессорозависимой гри — бо тут більшість систем при збільшенні якості картинки знижують продуктивність не занадто сильно. З іншого боку, інтегрованих рішень і на мінімальну якість не завжди вистачає. Але навіть молодший Kaby Lake-G справляється з максимальним в повному дозволі.

З цією грою справи йдуть гірше, але на Ryzen 5 2400G вона в максимальній якості взагалі відмовляється запускатися. А тут — не надто швидко, але працює. При настройках середня якість, буде зовсім добре працювати.

Як ми вже давно (і добре) знаємо, цій грі для максимальної якості замало не тільки RX 480, але GeForce GTX 1070. З іншого боку, навіть кращі інтегровані рішення лише зовсім недавно почали справлятися з нею хоча б на «минималках», та й то в низькому дозволі. Зі зрозумілих причин, представники лінійки Kaby Lake-G хоч цієї проблеми позбавлені — насправді тут якість картинки можна трохи збільшити. Навіть при використанні молодшого Core i7-8705G, який все одно в кілька разів швидше, ніж Ryzen 5 2400G.


У цих іграх частота кадрів в будь-якому випадку обмежена 60 FPS, так що основне значення має те, наскільки близько досліджувана система підбирається до зазначеної межі. «Беззастережно придатною для будь-яких налаштувань можна вважати хіба що RX 480, хоча і продуктивність Kaby Lake-G в HD-дозволі питань не викликає. Та й Full HD грати можна як мінімум, не гірше, ніж на Ryzen 5 2400G в HD. Зазначимо, що це найкращий зразок інтегрованої графіки на ринку, причому настільному його сегменті — «впихнути» в ноутбук в принципі можна (в минулому році Asus, наприклад, взагалі вдалося випустити умовно-портативний комп’ютер на базі Ryzen 5 1600), але не у всякий. Швидше за все, такий, куди і не обов’язково, оскільки і дискретне відео туди ж «поміститься» без особливих проблем. Kaby Lake-G ж, як вже не раз було сказано, приватним випадком системи з дискретною графікою і є — просто це дещо більш компактне рішення, ніж при збірці «по частинах». Але, при цьому, досить потужний.

Разом

Графіка Kaby Lake-G може вважатися інтегрованої по виконанню, але залишається дискретної по ідеології. Більше того — застосовані рішення перевершують на голову дискретні відеокарти початкового і навіть середнього рівня, оскільки «надширока» шина HBM2 дозволяє отримати пропускну здатність пам’яті на рівні, досяжне лише відеокарт з «широкою» ж GDDR5. Чому в недорогих дискретних відеокартах не застосовується HBM/HBM2, хоча вона і для таких була б корисна? А тому, що сама пам’ять поки коштує дуже дорого. У результаті виробники намагаються уникати її використання без необхідності. У Intel була необхідність — потрібно реалізувати максимальну компактність. У результаті, наприклад, ті ж NUC на Kaby Lake-G за габаритами або енергоспоживанню порівнянні з однієї лише відеокартою на базі Radeon RX 480/580. Хоча працюють обидві модифікації Vega M повільніше відеокарт такого рівня, так що в звичайному десктопі (де габарити якраз не важливі — на відміну від ціни і продуктивності) застосовувати раніше краще останні. У ноутбуці ж — коли як. В принципі, виробники зараз вже «навчилися» впихати потужний відео в моделі масою 2,5 кг — коли-то стандартні для будь-якого ноутбука. Але ось Kaby Lake-G можна використовувати і в моделях, 2 кг легше, що вже трохи краще відповідає сучасним вимогам до портативного комп’ютера. Так і в міні-ПК такі процесори можуть застосовуватися, причому не лише в «рідних» NUC — наприклад, Chuwi в травні анонсувала випуск дволітрових ігрових комп’ютерів серії HiGame. Зрозуміло, що це недешеві іграшки, але якщо проблему можна вирішити за гроші, то це вже не проблема, а просто витрати. Ось, як раз, поява Kaby Lake-G дозволяє звести деякі проблеми до рівня витрат. У всякому разі тоді, коли такі взагалі стоять — як ми вже сказали, ринок «повноформатних» настільних комп’ютерів вони ніяк не зачіпають: якщо не гнатися за максимальною компактністю, то у форматі Mini-ITX за ті ж гроші можна зібрати більш швидкий комп’ютер. Або має порівнянну продуктивність, але вже помітно дешевше. Але досягти такої компактності, якою можуть похвалитися ті ж NUC восьмого покоління або HiGame, не вийде і близько. Так що поява Kaby Lake-G — по суті додаткова «ступінь свободи» при виборі, що не можна не вітати.