Centr-dostavki.ru

Центр Доставки
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Устройство видеокарты

GPU (графический процессор) – является «сердцем» видеокарты, который отвечает за математические расчеты изображения, выводящегося на экран. Иными словами – обработка графики. GPU по своим свойствам похож на центральный процессор (CPU) компьютера, однако предназначен для построения изображения.

Частота

Одна из важнейших характеристик графического процессора – тактовая частота. С ней всё просто. Она измеряется в мегагерцах и чем выше его показатель, тем быстрее идет обработка информации. Частота современных видеокарт достигает отметки в 1000-1400 Мгц.

Техпроцесс

Важным показателем является техпроцесс, это один из первых пунктов среди характеристик видеоадаптеров. Измеряется в нанометрах.

Грубо говоря, основной движущей силой являются транзисторы. Если взять современные видеокарты, то можно заметить, что показатель нанометров все меньше и меньше с каждым поколением видеочипов. Все это обусловлено тем, что чем меньше размер транзисторов, тем больше их можно разместить на одном видеочипе.

С уменьшением размера транзисторов, в целом у видеокарт уменьшается также:

  • Энергопотребление;
  • Тепловыделение (TDP);

Производительность при этом увеличивается, так как на одной площади можно разместить больше вычислительной мощности.

Чем меньше техпроцесс, тем лучше.

Средство диагностики

Еще один способ, Как узнать и определить объем видеопамяти компа – запустить средство диагностики библиотек DirectX.

Для этого, независимо от версии Виндовс, нужно кликнуть по кнопке «Пуск», в строке «Выполнить» ввести “dxdiag” и запустить найденный EXE-файл. Во вкладке «Экран» в разделе «Устройство» представлена информация о модели графического ускорителя и объеме видеопамяти на борту.

Ах да, забыл, рекомендую все же почитать пост – о том, что такое графическая память (ну, так сказать, для твердого понимания).

Узнаем характеристики видеокарты

В панели управления видеодрайвером

Если у вас установлен родной видеодрайвер вместе с панелью управления графикой — то самый простой и информативный способ узнать всю «подноготную» о видеокарте — это воспользоваться его информационным меню.

Для начала нужно открыть центр управления графикой — для этого, как правило, достаточно кликнуть правой кнопкой мышки по раб. столу / либо найти соответствующий значок в трее / либо найти ссылку в меню ПУСК (см. пример на скрине ниже). 👇

👉 В помощь!

Нет значка видеодрайвера Intel HD, nVidia или AMD Radeon в трее рядом с часами и на рабочем столе. [Что делать?]

Панель Radeon Software

Панель Radeon Software

Далее в меню нужно найти раздел «Система» 👇 («Графические процессоры», «Оборудование», «Информация о системе» и пр., в зависимости от модели вашей видеокарты и версии ее драйверов).

Собственно, в этом разделе будет указана:

  • модель видеокарты (в моем случае » APU AMD Radeon Graphics»;
  • объем памяти (512 MB);
  • тип памяти (DDR4) и многое другое.

👉 Примечание: APU — значит, что видеокарта интегрирована в ЦП (их еще называют встроенными). Чтобы узнать точную ее модификацию — откройте спецификацию своего ЦП. Чтобы оценить производительность такой видеокарты — воспользуйтесь рекомендациями из этой заметки.

Раздел система — AMD центр

Раздел «система» — AMD центр управления графикой

IntelHD - центр управления графикой

IntelHD — центр управления графикой

С помощью спец. утилит (расширенная информация)

Плюсы способа : покажут информацию, даже если у вас нет драйверов или есть ошибки в Windows; можно узнать гораздо больше информации: тип памяти, точную модель видеокарты, частоты и пр.

Минусы : необходимо загрузить и установить утилиту (правда, их размер совсем небольшой, всего несколько МБ).

Совсем небольшая утилита, но крайне полезная. Позволяет узнать почти все тех. характеристики о процессоре, ОЗУ и видеокарте. На мой взгляд, очень информативная, причем, работает даже в тех случаях, когда остальные программы отказываются или выдают ошибки.

После ее загрузки и запуска, необходимо:

  1. открыть вкладку «Graphics»;
  2. выбрать видеокарту (если у вас она одна — то она будет выбрана автоматически);
  3. далее вы увидите количество памяти (Size, на скрине ниже 2048 МБ) и ее тип (Type, на скрине ниже — DDR3).

CPU-Z — смотрим тип и объем видеопамяти

👉 Важно!

Для встроенных видеокарт (в те же ЦП AMD Ryzen, например) — не всегда отображаются развернутые сведения о ней. В этом случае посмотрите модель ЦП, и откройте его спецификацию на офиц. сайте. См. скрин ниже. 👇

Спецификация видеокарты — скрин с офиц. сайта AMD

Спецификация видеокарты — скрин с офиц. сайта AMD

Speccy

Бесплатная и очень удобная утилита (кстати, от разработчика не менее известной программы для очистки CCleaner).

Позволяет за считанные минуты получить все самое важное: ЦП, ОС, ОЗУ, системную плату, графические устройства, звуковые и оптические устройства, сеть и т.д. Я не раз ее рекомендовал на страничках сайта.

После запуска утилиты, уже даже в главном окне, никуда не переходя, напротив вашей видеокарты — вы увидите ее объем памяти (см. пример ниже). 👇

Speccy - общая информация

Speccy — общая информация

Если этой информации недостаточно, или у вас ничего не отобразилось, откройте вкладку «Графические устройства». Далее вы увидите подробные свойства вашей видеокарты:

  • фирму и производителя;
  • код устройства, ревизию;
  • частоты;
  • интерфейс шины;
  • текущую температуру;
  • версию драйвера и БИОС;
  • количество памяти (виртуальной и физической).
Читайте так же:
Сколько устройств можно подключить к ноутбуку?

Графические устройства - показаны две видеокарты

Графические устройства — показаны две видеокарты

AIDA-64

Одна из самых знаменитых утилит для просмотра характеристик компьютера (кстати, заменила когда-то популярный Everest).

Плюсы: очень информативная (можно узнать всю подноготную компьютера). Работает даже, если не установлены драйвера.

Минусы: платная.

После запуска AIDA-64, откройте раздел «Отображение» , затем вкладки «Видео Windows» и «Графический процессор» . В них содержится исчерпывающая информация о всех видеокартах, установленных у вас на ПК (ноутбуке).

Что касается объема видеопамяти — то он отображается во вкладке «Видео Windows», пример представлен ниже.

AIDA 64 - просмотр свойства видеокарты

AIDA 64 — просмотр свойства видеокарты

Вот, собственно, и всё. Как правило, никаких сложностей не возникает: если не получается одним способом, попробуйте другой (думаю, что в этом плане утилиты CPU-Z, AIDA и Speccy — это самый надежный вариант).

С помощью штатных средств в Windows

Диспетчер задач (+ диспетчер устройств)

В современных версиях Windows 10/11 в диспетчере задач (для его вызова исп. сочетание Ctrl+Alt+Del) во вкладке «Производительность» можно найти информация о ЦП и видеокарте. Можно узнать не только модель устройства, но и его загрузку, температуру, версию драйвера, размер памяти и пр. Удобно! 👌

Производительность - графич. процессор!

Производительность — графич. процессор!

ЦП

Кстати, если речь идет только о модели видеокарты — то в 👉 диспетчере устройств можно раскрыть вкладку «Видеоадаптеры» и узнать модель видеокарты.

Диспетчер устройств - видеоадаптеры

Диспетчер устройств — видеоадаптеры

DxDiag (средства диагностики DirectX)

Плюсы способа : ничего не нужно загружать и устанавливать в систему; работает во всех версиях Windows; для просмотра свойств нужно всего 10 сек. времени!

Минусы : если с системой «не все в порядке» (например, нет драйверов) — информацию не узнаете.

*

Сначала необходимо нажать сочетание кнопок Win+R (чтобы открылось окно «Выполнить»), затем ввести команду dxdiag и нажать по кнопке OK — см. на пример ниже. 👇

Запускаем средство диагностики DirectX (DxDiag)

Запускаем средство диагностики DirectX (DxDiag)

Далее должно запуститься средство диагностики: нам нужна вкладка «Экран» . Открыв ее, вы увидите модель видеокарты и ее основные свойства (см. цифру-2 на скрине ниже). Собственно, искомая информация получена (см. графу «Всего памяти») . 👌

Экран - устройство, смотрим свойства видеокарты (кликабельно)

Экран — устройство, смотрим свойства видеокарты (кликабельно)

👉 Кстати!

Пример, представленный выше, стоит отметить отдельно: дело в том, что я спец. показал интегрированную видеокарту IntelHD — а такие карты используют ОЗУ (возникает «путаница»). Если у вас подобная видеокарта, то рекомендую ознакомиться вот с этим.

msinfo32 (сведения о системе)

В Windows есть спец. «вкладка» с информацией о железе и ПО. Чтобы ее открыть — нажмите Win+R , и используйте команду msinfo32 (в строке «Открыть»).

В окне «Сведения о системе» необходимо раскрыть вкладку «Компоненты /дисплей» — в ней будет представлена информация о видеокарте. 👇

Сведения о системе, дисплей

Сведения о системе, дисплей

CMD (через командную строку)

Сначала необходимо запустить 👉 командную строку от имени администратора, и после скопировать в нее нижеперечисленный список команд. В результате узнаете модель адаптера, объем памяти, версию драйвера, ID.

wmic PATH Win32_videocontroller GET description

wmic PATH Win32_videocontroller GET adapterram

wmic PATH Win32_videocontroller GET driverversion

wmic PATH Win32_videocontroller GET pnpdeviceid

Командная строка (+ комментарии) || Информация по адаптеру

Командная строка (+ комментарии) || Информация по адаптеру

Через параметры и свойства экрана

Плюсы способа : не нужно ничего устанавливать; быстро; минимум «копаний» в железе и ПО.

Минусы : можно ничего не узнать, если у вас в системе не установлены видеодрайвера.

*

Некоторые меню могут немного различаться, в зависимости от версии Windows (я покажу на примере самой новой Windows 10/11).

Итак, щелкаете в любом месте рабочего стола правой кнопкой мышки — в появившемся меню выбираете «Параметры экрана» . См. пример ниже. 👇

Параметры экрана

Далее необходимо открыть ссылку «Свойства графического адаптера» (см. скрин ниже). В некоторых версиях ОС Windows может быть просто ссылка «Свойства» (в Windows 11 нужно открыть подраздел «Расширенный дисплей», пример ниже).

Свойства граф. адаптера

Свойства граф. адаптера

Собственно, открыв свойства, останется только просмотреть интересующую информацию: модель устройства, сколько памяти доступно, а сколько используется. См. пример ниже. 👇

Windows 11 - свойства дисплея

Windows 11 — свойства дисплея

Адаптер - смотрим хараткеристики видеокарты

Адаптер — смотрим характеристики видеокарты

На сим пока всё. Дополнения и иные мнения — приветствуются в комментариях!

Интегрированная или внешняя (дискретная) видеокарта

Интегрированная (встроенная) видеокарта

Интегрированная видеокарта — это видеокарта, которая уже встроена в ваш процессор или материнскую плату. В большинстве современных процессоров от AMD и Intel под защитной крышкой процессора располагается не только кристалл центрального процессора, но и интегрированное в кристалл процессора графическое ядро для вывода графической информации.

Решение со встроенными графическими процессорами (видеокартами) довольно популярно в ноутбуках и другой портативной электронике, где из-за компактных размеров устройства невозможно использовать отдельное внешнее графическое решение для вывода информации.

Читайте так же:
Как подключить беспроводной сабвуфер к Саундбару?

Интегрированное графическое решение в плане общей производительности и быстродействия зачастую уступает отдельным внешним графическим картам и, скорее, годится как временное решение до момента покупки отдельной внешней видеокарты (в ноутбуках и другой портативной электронике возможность замены видеокарты зачастую отсутствует). Однако производительности интегрированного в материнскую плату или процессор видеочипа вполне хватает для ряда повседневных задач по типу серфинга в интернете, просмотра видео в низком разрешении (битрейде) или работы в офисном пакете приложений. Интегрированные видеокарта в последних линейках процессоров Intel (начиная с интегрированного графического ядра Intel HD Graphics 630) и AMD (начиная с интегрированного графического ядра Radeon Vega 10) вполне могут справиться с простыми и нетребовательными играми в FullHD разрешении.

В дополнение хотелось бы отметить, что все интегрированные графические карты не имеют своей собственной видеопамяти. В качестве видеопамяти интегрированные решения резервируют настраиваемый участок из оперативной памяти для своих нужд и последующей работы.

Внешняя (дискретная) видеокарта

Внешняя или дискретная видеокарта — это устройство (независимое видеоядро), которая располагается на отдельной плате и устанавливается в отдельный AGP (от англ. Accelerated Graphics Port — ускоренный графический порт) или PCI (англ. Peripheral component interconnect — взаимосвязь периферийных компонентов) слот материнской платы компьютера.

Дискретные видеокарты являются самым производительным графическим решением, так как на отдельной плате видеокарты располагается независимый графический процессор и набор отдельной независимой видеопамяти, что позволяет не задействовать в процессе работы графического процессора (видеокарты) вашу основную оперативную память и встроенное в процессор графическое ядро.

Из-за резкой разницы в производительности, по сравнению с интегрированными графическими решениями, прямо пропорционально повышается и рабочая температура видеокарты. Поэтому на все производительные дискретные решения устанавливаются массивные радиаторы для отвода тепла, а количество кулеров используемых для охлаждения может достигать 3-4 штук.

Дискретный вариант видеокарт может быть заменён в будущем, когда производительности текущей видеокарты не будет хватать для запуска новых требовательных игр или работы в графических приложениях.

Параметры видеокарты

Частота графического процессора (МГц) — тактовая частота ядра, во многом определяет производительность видеосистемы.

Тип видеопамяти (GDDR, GDDR2, GDDR3, GDDR4, GDDR5) — определяет частоту, разрядность шины памяти видеокарты.

Объём видеопамяти (Мб) — чем больше объём, тем большее число кадров способен сформировать графический процессор за короткий промежуток времени.

Частота видеопамяти (МГц) — чем выше частота работы видеопамяти, тем выше общая производительность видеокарты.

Ширина шины видеопамяти — указывает на количество бит (64, 128, 256) информации, передаваемой за такт.

Интерфейс — разъем, для установки видеокарты, на материнской плате (PCI-Express).

Количество поддерживаемых мониторов — одновременное подключение нескольких устройств.

Максимальное разрешение — количество точек, по горизонтали и по вертикали, при построении изображения графическим процессором видеокарты.

Число универсальных процессоров — шейдерные конвейеры, отвечающие за расчет цветов и геометрических структур.

Число текстурных блоков — выполняют выборку и фильтрацию текстур, а также наложение текстур на поверхности геометрических объектов.

Число блоков растеризации — отвечает за финальный этап обработки изображения (сглаживание, фильтрация), а также за запись обработанного изображения в буфер видеокарты.

Версия шейдеров — чем выше версия шейдеров, тем больше у видеокарты возможностей по созданию специальных эффектов.

Поддержка:

  • DirectX — чем старше версия, тем больше набор функций и шире возможности специальных эффектов;
  • OpenGL — данный параметр важен только для специализированного программного обеспечения.

Разъемы видеокарты:

  • D-Sub — 15-контактный, аналоговый, разъем VGA;
  • DVI-I — цифровой разъем с поддержкой аналоговых сигналов, позволяющий подключить монитор через переходник на разъем D-Sub;
  • DVI-D — цифровой разъем в «чистом» виде — не поддерживает аналоговые сигналы;
  • HDMI — разъем для передачи цифрового сигнала высокой четкости (HD);
  • Display Port — используется для передачи видео и аудио в цифровом виде.

Разъёмы видеокарты

Видеодрайвер

Специальное программное обеспечение, поставляемое производителем видеокарты и загружаемое в процессе запуска операционной системы. Видеодрайвер выполняет функции интерфейса между системой с запущенными в ней приложениями и видеоадаптером.

Порты обоих устройств должны совпадать. Ниже — краткое описание возможных разъемов.

AGP и PCI Express

АГП интерфейс — устаревший вариант. Его уверенно заменил PCI Express. Словом, для современных производительных компьютеров AGP — не вариант. Но и с PCI есть нюансы.

слоты расширения для видеокарты на материнке

PCI Express 2.0 и 3.0

Первая версия разъема обладала скоростью в 2,5 гигатранзакций в секунду. Во второй, вышедшей в 2007 году, быстрота увеличилась в два раза. За счет обратной совместимости старые видеокарты нормально работали в более новых материнских платах.

Какие были новшества, кроме скорости:

  1. обновленные механизмы, созданные для контроля скорости соединений программным образом;
  2. смена системы питания.

В PCI-SIG была создана спецификация, способная обеспечить необходимую подпитку с учетом особенностей потребления энергии графических адаптеров: диапазон повысили до 225-300 Вт на устройство. Для этого стали использовать новый в то время 2×4-пиновый разъем.

Читайте так же:
Как поменять приложения на iOS 14?

В 2010 году выпустили 3-ю вариацию интерфейса с показателем скорости в восемь гигатранзакций. Такой прорыв получилось совершить за счет новой схемы кодировки, когда 128 бит информации, которая проходит по шине, кодируется 130 битами. Девайсы с поддержкой этой версии стали доступны на рынке только в 2012 году.

ASUS Radeon RX 560 2GB DDR5 AREZ EVO подключается в слот PCI-E x16 3.0

Четвертая версия появилась в 2017 году. Она стала еще быстрее: этот разъем способен осуществлять аж 16 гигатранзакций в одно мгновение. Стандарт 5.0, утвержденный два года спустя, получил пропускную способность в 32 Гт/с. Такая скорость подходит для проектов, которые связаны с VR.

SLI и Crossfire

Создавая топовую геймерскую систему, разработчики ставят в приоритет задачу добиться максимально возможной производительности при работе с 3D-проектами. Это логично, так как современные игры весьма требовательны к ресурсам компьютера, и особенно — к его графической составляющей.

С этой целью две лидирующие компании — AMD и NVidia — разработали технологии, которые позволяют объединить два и более GPU в сборке. Это нужно, чтобы использовать суммарную мощность видеокарт, подключив их параллельно. У АМД такая разработка называется Crossfire, поддерживается, например, моделью RX 560, а у Нвидиа — SLI, есть у HP NVIDIA Quadro P620 2GB.

Возможность существенного увеличения графической мощности открывает новые горизонты не только для геймеров, но и для тех, кто работает с трехмерной графикой.

Что нужно учесть при выборе:

  • Имеет смысл объединять только топовые GPU.
  • Материнка также должна поддерживать такие технологии.
  • Для параллельной стабильной работы видеоадаптеров рекомендуется приобретать идентичные модели. В противном случае велика вероятность того, что девайсы будут конфликтовать.

 ASUS GeForce RTX2080 8GB GDDR6 DUAL OC с поддержкой SLI

Совет: если пользователь на 100% уверен в том, что он поставит вторую видеокарту, тогда покупка моделей с поддержкой подобных технологий — необходимое решение. Если же это не более, чем планы на будущее, то лучше уж заменить старое ГПУ на более мощное, когда появится такая возможность, и не заморачиваться с нюансами сейчас.

Мощность процессора

Чтобы сборка работала стабильно, она должна быть сбалансированной. Только грамотный подбор компонентов позволит по максимуму насладиться возможностями ПК.

Мощность ЦП обязательно стоит учитывать. Слабый процессор не способен раскрыть потенциал GPU на 100%.

 процессоры AMD Ryzen 5 2400G и Intel Core i7-9700K для игровых сборок

Неопытные пользователи часто полагают, что мощный графический адаптер — решение всех проблем, однако это не так. Да, установив производительное устройство, пользователь получит хороший прирост быстродействия, но нет смысла ставить, например, модель уровня GTX 1080 в сборку с двухъядерным «камнем». Это не дает 100% гарантии избавления от фризов, и уж точно не факт, что комфортно поиграть на ультрапресете во все новинки удастся без проблем.

Совет: не стоит забывать, что не менее важен и объем ОЗУ, который должен составлять как минимум 8 Гб для дизайна, видеомонтажа, а для геймерских моделей рекомендуется не менее 16 Гб, тем более, если пользователь настроен играть на максималках.

Важно учитывать не только количество ядер (нужно минимум четыре), но и потоков, так как многие игры, профессиональный софт оптимизированы под многопоточные модели.

GDDR5, GDDR5X, GDDR6, HBM

Помимо GPU, важным компонентом видеокарты остается память, поскольку она должна как можно быстрее обеспечивать графический процессор данными. Данные на видеокарту поступают через интерфейс PCI Express, они загружаются в память, после чего к ним может обращаться GPU с пропускной способностью в сотни Гбайт/с. С годами технологии памяти совершенствовались. Спрос на высокую пропускную способность памяти привел к тому, что технологии разделились на два дерева развития. DDR превратилась в GDDR, но в будущем все больше видеокарт будут переходить на память HBM.

GDDR (Graphics Double Data Rate) остается важным стандартом памяти современных видеокарт кроме High Bandwidth Memory (HBM). Как и в случае оперативной памяти DDR на материнских платах, GDDR тоже прошла через несколько поколений. Вместе с Micron NVIDIA разработала более производительный вариант GDDR5 под названием GDDR5X, который используется на некоторых видеокартах Pascal. В случае памяти DDR (и GDDR) передача данных производится на подъеме и спаде тактового сигнала. Со сменой поколений пропускная способность памяти GDDR существенно увеличилась. Вместе с тем энергопотребление продолжало снижаться. Тактовые частоты с поколениями увеличивались весьма существенно, с уровня 166 МГц до 1.750 МГц и выше.

Новые видеокарты NVIDIA GeForce RTX базируются на новой памяти GDDR6 производства Micron и Samsung. В зависимости от модели видеокарты, на ней может устанавливаться память Samsung или Micron. Разницы по производительности нет.

Aufbau einer Grafikkarte

Конкуренты NVIDIA решили перейти на память HBM на настольном рынке, но им при этом пришлось бороться с проблемами доступности памяти и объема. У HBM есть недостаток в виде довольно большой ширины шины памяти, что увеличивает требования к пространству и стоимость разработки GPU. Память HBM установлена в той же упаковке, что и GPU, что позволяет добиться компактного дизайна видеокарт. NVIDIA выпускает видеокарты с памятью DDR, то есть GDDR5(X) и GDDR6, а также HBM (High Bandwidth Memory). HBM была разработана для удовлетворения потребностей по значительной пропускной способности памяти. HBM2 достигает пропускной способности до 1 Тбайт/с, в случае GDDR6 она ограничена пока что 672 Гбайт/с.

Читайте так же:
Как найти массу в физике формула?

NVIDIA на данный момент использует память HBM почти исключительно в серверном сегменте ускорителей на GPU. Исключением здесь будут разве что настольные модификации, такие как Titan V. Для NVIDIA память GDDR6 будет играть важную роль в обозримом будущем, благодаря дальнейшей оптимизации данная память должна дать достаточную пропускную способность.

Пропускная способность памяти — спецификация техническая. Она дополняется различными алгоритмами сжатия данных в памяти. Что позволяет как сэкономить доступное пространство в памяти, так и ускорить передачу данных. Например, уже несколько поколений GPU NVIDIA используют цветовую дельта-компрессию. NVIDIA уже внедрила пятое поколение подобной компрессии.

Важно понимать, что сжатие выполняется без потерь. Так что никакие данные не искажаются, и разработчикам не приходится адаптировать свои продукты каким-либо образом.

NVIDIA использует для сжатия памяти цветовую дельта-компрессию (Delta Color Compression). Она основана на хранении полной цветовой информации только о базовом пикселе, для остальных пикселей сохраняется разница с базовым (дельта). Для этой цели используется матрица 8×8 пикселей. Поскольку близко расположенные пиксели обычно мало отличаются по цвету, хранение для них разницы оказывается по объёму информации выгоднее, чем полного значения цвета. Поэтому в случае дельта-компрессии информация о пикселях занимает меньше места в памяти, также достигается экономия пропускной способности памяти. В качестве примера работы технологии можно привести полностью черный и белый блоки, которые будут храниться в памяти как <1.0, 0.0, 0.0, 0.0>или <0.0, 1.0, 1.0, 1.0>. Здесь можно сэкономить ресурсы, сохраняя только 0.0 или 1.0 в качестве значения.

NVIDIA улучшила процедуру определения сжимаемого контента. Ранее известное соотношение 2:1 теперь может использоваться чаще, то есть применяться к большему массиву данных. Появились и соотношения сжатия 4:1 и 8:1.

Сжатие цветовой информации позволяет увеличить эффективную пропускную способность памяти, поскольку физически ей приходится передавать меньше информации. Что повышает эффективность работы интерфейса памяти.

GDDR по сравнению с HBM

Если вместо классической памяти GDDR использовать HBM, то можно получить намного более компактную упаковку GPU вместе с памятью, что позволяет уменьшить дизайн PCB. В случае настольных видеокарт экономия пространства PCB не принципиальна. Однако она более интересна в компактных системах, таких как ноутбуки. Здесь каждый квадратный миллиметр имеет значение, так что конструкция GPU с памятью HBM дает свои преимущества.

Интересно будет посмотреть, как покажет себя HBM в игровом сегменте в будущем. Выбрав память GDDR6 для современных видеокарт GeForce RTX, NVIDIA наглядно продемонстрировала, что менее сложная память может рассматриваться как вполне достойная и достаточно производительная альтернатива HBM.

Упаковка GPU

Конечно, самый важный компонент видеокарты — это GPU. Но в данном случае подразумевается не просто кристалл на PCB (Printed Circuit Board), но упаковка GPU. Упаковка GPU состоит из подложки, обычно тоже PCB, к которой кристалл крепится через массив шариков BGA (Ball Grid Array). Впрочем, многие GPU напрямую припаиваются к PCB видеокарты через BGA и без подложки. Опять же, здесь все зависит от структуры упаковки GPU.

Если посмотреть на типичную упаковку GPU, то графический процессор будет расположен по центру, его окружают различные компоненты SMD, по большей части резисторы. Упаковка GPU припаивается к PCB видеокарты через BGA. В показанном примере видеопамять расположена вне упаковки GPU, на видеокарте.

NVIDIA также выпускает GPU с встроенной в упаковку памятью HBM. В таком случае GPU и HBM расположены ближе и соединены подложкой. В подложке имеются горизонтальные и вертикальные проводники на разных слоях, которые и обеспечивают связь между GPU и HBM.

Aufbau einer Grafikkarte

Преимущество HBM заключается в очень широком интерфейсе памяти, который обеспечивает высокий уровень пропускной способности. Но данный интерфейс возможен только через подложку, поскольку на чип памяти приходится 1.024 дорожек. С двумя или четырьмя чипами памяти количество дорожек пропорционально увеличивается и превышает 4.000. Производство подложки — процесс довольно трудоемкий и затратный, он обходится дороже, чем просто установка упаковки GPU через BGA на PCB видеокарты. Кроме того, производителю видеокарты уже недостаточно просто купить GPU и смонтировать его на видеокарту; в цепочке производства задействуются дополнительные компании, которые устанавливают GPU и HBM на подложку.

Собственно, в этом кроется одна из причин (за исключением доступности и цен самой HBM), почему память HBM пока не устанавливается на видеокарты повсеместно. Из настольных видеокарт NVIDIA использует HBM и соответствующую упаковку GPU только для Titan V. Впрочем, та же линейка Tesla полностью опирается на HBM. Но в профессиональном сегменте затраты играют уже не такую существенную роль, а приложения выигрывают от высокой доступной пропускной способности памяти.

Читайте так же:
Как можно узнать номер телефона по паспорту?

Подсистема питания

Подсистема питания играет важную роль на современных видеокартах. NVIDIA как раз недавно существенно улучшила систему питания на эталонных дизайнах. В случае GeForce GTX 1080, NVIDIA Titan V и теперь GeForce RTX 2080 (Ti) мы получаем эффективную и производительную систему питания.

Подсистема питания GPU, памяти и других компонентов важна для эффективной и стабильной работы видеокарты. Все же речь идет о питании до 20 млрд. транзисторов в случае 12-нм техпроцесса, с несколькими уровнями напряжения, которые должны быть точно отрегулированы. Кроме того, система питания должна гибко адаптироваться в зависимости от нагрузки. Наконец, потери на подсистеме питания должны быть минимальны, то есть она не должна становиться существенным потребителем энергии.

Aufbau einer Grafikkarte

В составе подсистемы питания важную роль играют модули стабилизации напряжения VRM (Voltage Regulator Modules). Они гарантируют, что напряжение 12 В, которое поступает от блока питания ПК, будет преобразовано в напряжение около 1 В, которое необходимо для питания GPU и памяти.

Многие производители подчеркивают большое число фаз подсистемы питания. Однако подход «больше — лучше» здесь работает не всегда. Как правило, чем выше тепловой пакет, то есть энергопотребление видеокарты, тем больше фаз должна содержать подсистема питания.

Spannungsversorgung über mehrere Phasen

Правило следующее: чем больше фаз подсистемы питания установлено на видеокарту, тем лучше она справляется с подачей питания при высоких токах. Вместе с тем если фаз больше, чем требуется, то эффективность снижается. Все же большое число фаз приводят к потерям при стабилизации. Поэтому NVIDIA для GeForce RTX 2080 и GeForce RTX 2080 Ti разработала систему, которая может динамически включать и выключать фазы — в зависимости от того, сколько именно питания требуется для видеокарты. В результате подсистема питания всегда обеспечивает идеальный баланс. У GeForce RTX 2080 подсистема питания 8-фазная, при этом она может динамически включать/выключать фазы, чтобы активным было число фаз между одной и восемью. У видеокарты GeForce RTX 2080 Ti число фаз составляет 13.

Некоторые наши читатели наверняка помнят обсуждение подсистемы питания Radeon R9 Fury X, которая потребляла существенно больше мощности от одного из двух дополнительных 8-контактных штекеров, чем оговаривается стандартом. В то время у AMD наблюдались проблемы балансировки нагрузки питания между двумя разъемами и слотом PCI Express. NVIDIA также упоминает об улучшениях балансировки нагрузки GeForce RTX 2080 Founders Edition и GeForce RTX 2080 Ti Founders Edition. Особенно это верно для двух дополнительных 8- или 6-контактных штекеров, которые теперь могут обеспечивать более сбалансированное питание. Также NVIDIA разработала новые контроллеры питания для данной цели.

Дополнительные интерфейсы

Кроме видеовыходов, упомянутых выше, а также разъемов питания, на видеокарте есть и другие интерфейсы. Хотя некоторые из них уже перестали играть какую-либо роль. Для работы в конфигурации SLI видеокартам необходимо обмениваться информацией о кадрах и синхронизировать их выдачу. Данный обмен выполняется через интерфейсы NVIDIA SLI или NVLink.

Технология Scalable Link Interface или SLI уже потеряла былую значимость с поколения Pascal, интерфейсы на видеокартах GeForce GTX 1070 и выше все же имеются. Они позволяют соединить две видеокарты в конфигурацию multi-GPU. С GPU Turing NVIDIA по-прежнему придерживается SLI, но теперь используется технология передачи, ранее встречавшаяся на GPU-ускорителях в серверах и на некоторых картах Quadro: NVLink. Но на данный момент только GeForce RTX 2080 Ti и GeForce RTX 2080 поддерживают интерфейс NVLink для связи видеокарт в системе multi-GPU.

Aufbau einer Grafikkarte

Классическая технология SLI Alternate Frame Rendering (AFR) теперь будет работать через NVIDIA NVLink — данные с кадрового буфера второй видеокарты передаются на первую через интерфейс NVLink. В первых тестах SLI работает на новых видеокартах хорошо, но здесь все зависит от соответствующих профилей в играх. Интересно будет посмотреть, насколько значимую роль системы multi-GPU будут играть в будущем.

Как мы упомянули выше, у NVLink есть значимое преимущество по пропускной способности. Мостик SLI первого поколения достигает скорости 1 Гбайт/с, в случае варианта SLI HB мы получаем 4 Гбайт/с, что позволяет играть в SLI в разрешении 4K с частотой больше 60 Гц. Один канал NVLink в случае GeForce RTX 2080 достигает 50 Гбайт/с, а GeForce RTX 2080 Ti с двумя NVLink поддерживает уже 100 Гбайт/с.

голоса
Рейтинг статьи
Ссылка на основную публикацию
ВсеИнструменты
Adblock
detector