Основные этапы и тенденции внедрения компьютерной графики в информационные технологии

Бесплатный доступ

Статья посвящена анализу основных исторических этапов становления и перспектив развития средств компьютерной графики – от простых текстовых дисплеев до высокопроизводительных устройств, способных обрабатывать трехмерные цветные объекты. Материал статьи распространяется на широкий круг проблем и может быть полезен для специалистов, интересующихся вопросами истории создания средств компьютерной графики.

Вычислительная техника, компьютеры, компьютерная графика, видеокарты, информационные технологии

Короткий адрес: https://sciup.org/148332832

IDR: 148332832   |   УДК: 004.383.5   |   DOI: 10.18137/RNU.V9187.25.04.P.96

Текст научной статьи Основные этапы и тенденции внедрения компьютерной графики в информационные технологии

Ежегодно 3 декабря отмечается пока неофициальный День компьютерной графики, который празднуют компьютерные дизайнеры во всем мире. Всемирный день компьютерной графики возник по инициативе компании Alias и со временем стал праздником для всех, кто работает в этой области. Первый компьютер Whirlwind , оснащённый устройством вывода изображения на экран, появился в 1953 году в стенах Массачусетского технологического института (MIT, США), а первая компания по производству компьютерной графики Evans & Sutherland была создана в 1968 году в штате Юта Дэвидом Эвансом и Айвеном Сазерлендом [1]. В марте 1973 года появился первый персональный компьютер Xerox Alto , который имел графический интерфейс с границами окон и рабочего стола . До этого он оснащался контроллером дисплея. В 1975 году поступил в продажу очередной компьютер Altair 8800 . Предполагалось подключение его к телетайпу или текстовому терминалу.

Вестник Российского нового университета

Серия «Сложные системы: модели, анализ и управление». 2025. № 4

Теперь уже нет сомнений, что компьютерной графике в современном мире отведена роль важного инструмента для творчества, образования, научных исследований и промышленного производства [2].

Виды компьютерной графики

В настоящее время достаточно широко используются следующие виды компьютерной графики [2]:

  • •    растровая графика, изображения в которой состоят как бы из множества мелких квадратиков;

  • •    векторная графика, изображения которой широко используются для простых иллюстраций;

  • •    тактильная графика, в которой используются рельефные поверхности для передачи нетекстовой информации (карты, рисунки, графики и диаграммы) [3];

  • •    трёхмерная графика, в которой кроме высоты и ширины объекта добавляется третья ось – глубина (графика передаёт ощущение объёма);

  • •    фрактальная графика, основанная на фракталах (геометрических фигурах, обладающих свойством самоподобия), применяется для текстур (особенностей расположения элементов);

  • •    инфографика, визуализирующая данные для лучшего восприятия;

  • •    3D-графика, создающая объемные объекты, которые используются в кино и играх;

  • •    компьютерная анимация, создающая изображения, используемые в играх .

По способу создания следует отметить следующие три вида графики:

  • 1)    рисовальная, объекты которой создаются в единственном экземпляре;

  • 2)    печатная, предусматривающая широкое тиражирование;

  • 3)    компьютерная, используемая в мультфильмах.

По функциональной принадлежности различают:

  • •    станковую графику, охватывающую рисунки, акварели, гравюры и эстампы;

  • •    книжную графику, использующую в работе шрифты, иллюстрации и прочее книжное оформление;

  • •    плакатную графику, объектами которой являются афиши и плакаты;

  • •    письменную графику, к которой относятся каллиграфия и техника искусного письма [2].

История видеокарт

Компьютер с момента своего появления был предназначен для реализации численных расчетов и решения сложных задач, а демонстрировать на экране цветные картинки он ещё «не умел», так как для этого необходимо было специальное устройство. Таковым стала видеокарта.

Видеокарта (и её синонимы – видеочип, видеоплата, графическая карта) – это устройство, которое преобразует данные в графику или изображение на экране. Видеокарта не только выводит изображение на экран, но и обрабатывает его с помощью графического процессора (GPU). Первые видеокарты появились в 1980-х годах и предназначались для вывода изображений на экраны мониторов.

Настоящий прорыв в области видеокарт произошёл в 1981 году в связи с выпуском видеокарты IBM Monochrome Display Adapter (MDA) для персонального компьютера

Основные этапы и тенденции внедрения компьютерной графики в информационные технологии

IBM PC. MDA была первой картой, способной выводить текстовую и графическую информацию на монитор, хотя графика была ещё монохромной [4].

Модель MDA позиционировалась как видеокарта для деловой сферы и создавалась для базовой функции – написание текстов с чётким изображением.

Затем фирма Hercules выпустила видеоадаптер HGC ( англ. Hercules Graphics Controller ), который поддерживал две графические страницы, но не позволял работать с цветом.

Первой цветной видеокартой для PC стала CGA ( англ. Color Graphics Adapter ), выпущенная IBM в том же 1981 году. Она могла работать либо в текстовом режиме, отображая 16 цветов, либо в графическом, выводя четырёхцветные изображения в низком (320×200) разрешении.

Модель CGA поддерживала только стандартные частоты и проигрывала по чёткости выводимого на экран текста [4].

В ходе дальнейшего развития этой карты в 1984 году появился улучшенный графический адаптер EGA (англ. Enhanced Graphics Adapter ) с расширенной до 64 цветов палитрой.

Большинство современных видеокарт разрабатываются и производятся двумя крупными компаниями – Nvidia и AMD. В настоящее время обе компании выпускают новые, всё более мощные и улучшенные графические микропроцессоры.

Состав видеокарты

Традиционно видеокарта представлена следующими элементами:

  • 1)    графический процессор (GPU) – выполняет частично вычислительные процессы и обрабатывает графику;

  • 2)    видеопамять (VRAM) – хранит текстуры буферов кадров и иные графические данные;

  • 3)    шина – представляет собой интерфейс между GPU и основной системной памятью компьютера;

  • 4)    выходы;

  • 5)    порты стандартов для подключения дисплеев;

  • 6)    система охлаждения – требуется для контроля температуры GPU;

  • 7)    плата видеокарты [4].

К достоинствам видеокарт от Nvidia можно отнести:

  • •    использование современных технологий обработки изображения;

  • •    высокую производительность;

  • •    мощную архитектуру графического процессора.

Производительность графических процессоров Nvidia практически всегда занимает лидирующее положение.

К преимуществам видеокарт от AMD относятся:

  • •    сравнительно более доступные цены;

  • •    достаточно высокая производительность, которой хватает для решения задач большинства пользователей.

Видеокарты оснащаются встроенной памятью, которая служит для хранения сложных текстур, готовых кадров, передаваемых на монитор. От объема и скорости работы видеопамяти во многом зависит её производительность.

На сегодняшний день минимальный объем видеопамяти составляет 8 Гб.

Максимальный объем памяти в видеокартах может быть и больше – для видеокарт типа RTX 4090 или RX 7900xtx доступен выбор вплоть до 24 Гб.

Вестник Российского нового университета

Серия «Сложные системы: модели, анализ и управление». 2025. № 4

Для ответственной работы важно учитывать тип видеопамяти. Сейчас актуальны GDDR6X и GDDR6. Память 6Х на сегодняшний момент самая быстрая, то есть обеспечивает самый быстрый обмен данными с графическим процессором.

Буквенно-цифровая кодировка Nvidia и AMD используется для передачи информации о конкретной модели видеокарты. Модели от Nvidia могут начинаться со следующего сочетания букв:

GT – маркировка бюджетных низкопроизводительных образцов видеокарт;

GTX – индекс присваивается моделям, выпущенным пять лет назад;

RTX – этим индексом маркирует самые современные и производительные серии видеокарт, которые поддерживают все технологии обработки изображения.

После буквенного обозначения указывается серия видеокарты и положение конкретного адаптера по отношению к линейке производительности. Новая линейка видеокарт Nvidia получила цифровой индекс 40. После него добавляются еще две цифры, например, 90 – самый мощный по производительности графический процессор, 50 – самый бюджетный.

Маркировка AMD проще. Например, если рассматривать маркировку видеокарты новой категории RX 6700 XT, можно получить следующую информацию:

RX – принадлежность к игровой серии видеокарт;

  • 6 – номер поколения;

700 – позиция чипа в линейке производительности, она может быть от 500 до 900;

XT – обозначает, что графический процессор мощнее обычной карты.

Некоторые карты AMD получают маркировку с числом 50, например, RX 6950 XT. Это обозначает, что в видеокарте использовалась обновленная версия чипа, что дало возможность повысить производительность в среднем на 10 %.

Самая известная видеокарта на начало 2024 года – NVIDIA GeForce RTX 4090 [4]. Она высокопроизводительна в играх и переносит большие рабочие нагрузки благодаря объёму видеопамяти 24 Гб. Самая производительная видеокарта фирмы AMD – Radeon RX 7900XTX. Она немного уступает видеокарте RTX 4090 в трассировке лучей и рабочих нагрузках. Говоря о возможностях видеокарт, мы имеем в виду практическую направленность использования видеокарт, их функциональное предназначение [4]:

  • •    AMD Radeon RX 6700 XT – оптимальный вариант для игр;

  • •    Nvidia GeForce RTX 4090 – лучшая видеокарта для профессионалов.

Также в современных видеочипах есть несколько важных технологий, которые могут разблокировать дополнительные настройки графики.

Каждое последующее поколение видеокарт примерно на 10…15 % мощнее предыдущего [5].

Видеокарта и GPU

Графический процессор и видеокарта сегодня являются неотъемлемыми компонентами современных компьютерных технологий, и их функции часто взаимозаменяемы. GPU – это вычислительный процессор, ориентированный на графические вычисления, в то время как видеокарта – это комплексное устройство, включающее в себя GPU, видеопамять (VRAM), питание и другие компоненты. Иными словами, GPU – это часть видеокарты, которая отвечает за работу с графикой. Видеокарта, в свою очередь, включает не только графический процессор, но и другие элементы, такие как вентиляторы для охлаждения, разъемы для подключения к монитору и другие компоненты, обеспечивающие корректную работу всего устройства [3].

Основные этапы и тенденции внедрения компьютерной графики в информационные технологии

Работа GPU и видеокарты тесно связаны в контексте обработки графики, но в то же время они представляют собой разные аспекты компьютерной архитектуры.

Графические процессоры подразделяются на интегрированные и дискретные.

Интегрированные GPU встроены непосредственно в структуру центрального процессора или материнской платы и обеспечивают базовый уровень графики, часто используются в офисных и мультимедийных компьютерах. Их основное преимущество – низкое энергопотребление и отсутствие необходимости в дополнительных видеокартах.

Дискретные GPU представляют собой отдельные видеокарты, установленные на материнской плате. Они обладают высокой производительностью и предназначены для графических задач, таких как игры, профессиональный дизайн и видеоредактирование. Имеют собственную видеопамять и являются ключевым элементом в создании визуально насыщенных и высокопроизводительных систем.

Помимо такого разделения, можно отдельно выделить мобильные GPU:

  • •    для использования в портативных устройствах;

  • •    профессиональные GPU для специализированных профессиональных задач;

  • •    игровые GPU;

  • •    GPU для научных вычислений.

Принцип работы GPU. Работа GPU базируется на его способности как обрабатывать графику, так и одновременно выполнять множество задач:

  • 1)    параллельная обработка при работе с графикой;

  • 2)    GPU использует шейдеры (небольшие программы), которые управляют отображением цветов, теней и других визуальных аспектов;

  • 3)    GPU активно работает с пикселями (минимальные элементы изображения) и вершинами (точки в трехмерном пространстве), обеспечивая точное положение и цвет каждого элемента изображения;

  • 4)    GPU обрабатывает текстуры, накладываемые на объекты, и выполняет геометрические преобразования;

  • 5)    GPU применяет видеопамять для сохранения графических данных, текстур, шейдеров и промежуточных результатов;

  • 6)    GPU преобразует векторные данные в изображении пикселей в процесс, называемый растеризацией.

Таким образом, GPU окончательно формирует изображение и отображает его на экране устройства, обеспечивая высококачественное визуальное воспроизведение и эффективную обработку графических данных [6].

Графический (GPU) и центральный (CPU) процессоры похожи между собой, но их основные отличия заключаются в различной структуре и функциональности. CPU предназначен для обработки общих задач и последовательных операций. Его архитектура включает небольшое количество «сильных» ядер. GPU, напротив, содержит множество более слабых ядер, предназначенных для обработки параллельных задач.

В мире игр, где ключевым является быстрое и высококачественное отображение графики, GPU выходит на первый план. В выполнении сложных операций, таких как трассировка лучей или обучение нейронных сетей в машинном обучении, GPU демонстрирует значительное превосходство в скорости, в то время как CPU наилучшим образом подходит для задач общего назначения, таких как администрирование операционной системы

Вестник Российского нового университета

Серия «Сложные системы: модели, анализ и управление». 2025. № 4

или выполнение программ. Общая ключевая особенность этих микропроцессоров состоит в том, что и графический, и основной микропроцессоры размещаются на одном кристалле. Фирма AMD считает эту деталь крупнейшим архитектурным достижением [5].

Графический процессор (GPU)

Рассмотрим более подробно функциональное назначение графического процессора. Внешне он похож на центральный процессор (CPU), но его архитектура отличается от архитектуры CPU. В GPU содержатся несколько сотен вычислительных ядер, с помощью которых сложные расчёты выполняются очень быстро.

За годы эволюции персональных компьютеров любители и даже профессионалы и знатоки этой техники привыкли к тому, что компьютер содержит минимум два процессора: на центральном лежит исполнение всех рутинных обязанностей, а вспомогательный, графический, отвечает за изображение. Строго говоря, долгое время «сердце» видеочипов процессором не считалось. Увеличение мощности, расширение функций и возможность прямого программирования привели к рождению в конце 90-х термина GPU. Согласно легенде, впервые, когда производительность графических чипов превзошла мощь центральных, бывшие «вспомогательные» просочились в суперкомпьютеры, и сегодня несколько из них, из числа самых быстрых на планете, активно используют графические процессоры, а начальная версия Tianhe-I содержала больше GPU, нежели CPU [4; 6].

Перестановка слагаемых «грандиозна», но особенность текущего момента в том, что разделение процессорных единиц может исчезнуть вообще. Согласно отчётам о состоянии компьютерного рынка (IHS ISuppli), уже в текущем году половина поставленных ноутбуков и почти половина десктопов будут оснащены универсальными микропроцессорами, совмещающими на одном кристалле центральный и графический вычислительные компоненты.

Устоявшегося термина, обозначающего универсальный микропроцессор, пока нет. Одни, вслед за AMD, именуют такие чипы APU (Accelerated Processing Unit – ускоренное вычислительное устройство), другие предпочитают называть gCPU (g – от graphics). Чаще других звучит аббревиатура GEM (Graphics Enabled Microprocessor – микропроцессор с графическими функциями).

Несколько упрощая техническую часть, GEM-процессоры можно представить как логическое продолжение так называемой интегрированной графики. Последняя предполагает внедрение видеокарты в материнскую плату (набор системных микросхем, системный чипсет) и давно стала стандартом де-факто, так как «интегрированное видео» установлено на девяти из десяти современных компьютерах. С точки зрения центрального микропроцессора интегрированная видеокарта ничем не отличается от обычной, выполненной отдельной платой. Общение с ней ведётся также через чипы-посредники. Принципиальное отличие GEM-процессора заключается в том, что между CPU и GPU посредники отсутствуют [5; 6].

Гибридные графические компьютеры

По мнению исследователей из Университета Северной Каролины (США), современные процессоры расходуют доступные ресурсы неэффективно. Графическая составляющая лучше справляется со специализированными расчётами, в то время как на долю «обычных» ядер приходится решение сложных задач [5].

Основные этапы и тенденции внедрения компьютерной графики в информационные технологии

Идея объединить центральный процессор (CPU) и графический процессор (GPU) в одном кристалле была озвучена представителями компании AMD в 2006 году. Это стало возможным после приобретения компанией AMD фирмы ATI, выпускающей графические процессоры.

Объединение CPU и GPU даёт следующие преимущества:

  • 1)    снижение общего энергопотребления и стоимости системы за счёт сокращения числа комплектующих и унификации технологии;

  • 2)    возможность создавать компактные системы, пригодные для большинства задач, не требующих мощной графики;

  • 3)    быстродействие и производительность совместных (гибридных) процессоров CPU и GPU могут увеличиваться благодаря грамотному распределению нагрузки между блоками.

Разработчики предлагают объединить вычислительные ресурсы обоих блоков. Например, использовать ядра CPU для предварительной выборки данных из основной памяти, которые впоследствии могут быть использованы графической подсистемой. Таким образом, каждый из блоков гибридного процессора выполняет только те задачи, для которых он лучше приспособлен.

Согласно результатам тестов, предложенное решение повышает производительность гибридного процессора в среднем до 20 % [3; 5; 6].

Заключение

GPU играет ключевую роль в обеспечении высокопроизводительной графики. Оснащенный множеством ядер, способных одновременно выполнять разнообразные задачи, он становится эффективным инструментом для различных вычислительных задач, включая обработку изображений, исследовательскую работу и машинное обучение. Архитектурная эволюция графического процессора отражает постоянные инновации, расширяя его влияние и внедрение в современные технологии. Изначально графические процессоры разрабатывались для обработки графики в видеоиграх, но они быстро расширили свое влияние. В начале своего развития, в конце ХХ века, GPU выполняли относительно простые задачи по отображению графики. С появлением требовательных к ресурсам видеоигр и развитием технологий графические процессоры стали более мощными и специализированными инструментами. В 2000-х годах появилась концепция программной поддержки вычислений на GPU (GPGPU), что позволило использовать эти устройства для параллельных вычислений в аналитических расчетах, машинном обучении и других областях.

Кратко обозначим некоторые перспективы развития компьютерной графики, которые ожидаются в ближайшие годы:

  • •    увеличение производительности и возможностей графических процессоров за счет увеличения числа ядер и совершенствования архитектуры;

  • •    развитие и улучшение качества графики в виртуальной и дополненной реальности;

  • •    использование алгоритмов машинного обучения за счет искусственного интеллекта для создания более реалистичных текстур и графических изображений;

  • •    адаптирование графической индустрии и создание графики, которая будет оптимизирована для мобильных устройств и должна обеспечивать высокое качество изображения на малых экранах;

Вестник Российского нового университета

Серия «Сложные системы: модели, анализ и управление». 2025. № 4

  • •    использование расширений применения трёхмерной графики для создания реалистичных и привлекательных визуальных эффектов изображения [5; 6].