Блог компании 3v-Hosting

История виртуализации: как появились первые VPS

VPS

10 мин.


Виртуализация, важная часть современных вычислений, часто используется без особых размышлений. Сегодня виртуальные частные серверы (VPS) используются для всего, от личных блогов до бизнес-приложений. Они могут масштабироваться вверх или вниз по мере необходимости, являются гибкими и более доступными, чем физическая инфраструктура. Однако переход к VPS-хостингу не был быстрым и легким. Он основан на многолетних изменениях в использовании компьютеров, начиная с мэйнфреймов и заканчивая контейнерными сервисами. В этой статье рассказывается о том, как развивалась виртуализация, о технологиях, которые сделали VPS возможными, и об изменениях, которые преобразовали отрасль.

 

 

 

 

Рождение систем разделения времени

 

Идея виртуализации появилась еще до появления современных операционных систем и облачных сервисов. Она зародилась в 1960-х годах с появлением систем разделения времени, которые позволяли многим пользователям одновременно использовать вычислительные ресурсы. В прошлом компьютеры были очень большими и дорогими. Необходимо было эффективно использовать аппаратное обеспечение.

В 1961 году система совместимого разделения времени (CTSS) Массачусетского технологического института (MIT) стала первой системой, в которой компьютер могли одновременно использовать многие люди. Эта система стала началом того, что в конечном итоге привело к появлению виртуализированных сред. CTSS была первой системой, в которой были созданы изолированные сеансы пользователей, что является одной из важнейших идей VPS.

 

Хотя это не были виртуальные машины в современном понимании, они представили несколько важных концепций:
    - Разделение ресурсов
    - Изоляция сеансов пользователей
    - Одновременное выполнение

 

В эту эпоху также зародилась идея, что одна машина может представляться разным пользователям как несколько логических машин - идея, которая легла в основу будущих достижений в области виртуализации.

 

 

 

 

IBM и революция в области мэйнфреймов

 

Настоящий прорыв произошел в конце 1960-х годов благодаря IBM. IBM представила полную виртуализацию на аппаратном уровне с помощью монитора виртуальной машины (VMM) с выпуском System/360 Model 67, а затем System/370. Эти системы могли копировать многие различные типы компьютерных сред и запускать их все на одном главном компьютере.

Это привело к созданию операционной системы VM/370, которая позволяла запускать несколько независимых операционных систем на одном компьютере. Каждый пользователь мог запускать свою собственную ОС отдельно, полностью контролируя свою среду. Это самая ранняя форма того, что мы сейчас называем виртуальной машиной.

 

Ключевые особенности этой системы включали:
    - Полная аппаратная эмуляция
    - Уровень гипервизора (предшественник современных гипервизоров, таких как KVM, ESXi)
    - Полная изоляция на уровне ОС
    - Возможность одновременного запуска нескольких операционных систем

 

С современной точки зрения, работа IBM по сути изобрела виртуализацию серверов, и не случайно, что спустя десятилетия виртуализация по-прежнему тесно связана с системами IBM.

 

 

 

 

Эра Unix и изоляция на уровне процессов

 

В то время как IBM была лидером в области виртуализации мэйнфреймов, в средах Unix происходила эволюция другого рода. В 1970-х и 80-х годах системы Unix начали использовать chroot, введенный в Unix версии 7 в 1979 году, для изоляции процессов.

chroot позволяет администраторам изменять корневой каталог для процесса. Благодаря этому создается впечатление, что корневым каталогом является другой каталог. Другими словами, он создает «тюрьму», в которой работает программа. Эта базовая форма изоляции стала большим шагом в направлении идеи виртуализации на уровне приложений.

 

Хотя chroot никогда не разрабатывался для обеспечения безопасности или виртуализации как таковой, он вдохновил на разработку более надежных контейнерных сред, таких как:
    - FreeBSD Jails (2000)
    - Solaris Containers (2004)
    - Linux Containers (LXC)

 

Позже эти среды превратились в современные контейнерные платформы, но об этом мы поговорим немножко позже.

В эту эпоху системные администраторы Unix начали представлять себе мир, в котором на одном сервере могут сосуществовать несколько изолированных сред - раннюю версию VPS-хостинга.

 

 

 

 

Возникновение виртуализации x86 и программных гипервизоров

 

К 1990-м годам персональные компьютеры на базе архитектуры x86 были широко распространены, но они не имели такой же поддержки виртуализации, как мэйнфреймы IBM. Это создавало проблему: как обеспечить полную виртуализацию на обычном оборудовании, которое не было для этого предназначено?

Это стало возможным благодаря программной виртуализации, которая использовала умные технологии для эмуляции работы гостевой ОС даже без аппаратной поддержки. Одной из наиболее важных компаний в этой области была VMware, основанная в 1998 году. VMware Workstation (выпущенная в 1999 году) была первой программой, которая позволяла запускать более одной операционной системы x86 одновременно на настольном компьютере.

 

Вскоре за ней последовал VMware ESX Server, полнофункциональный гипервизор типа 1, предназначенный для серверов. Решение VMware преобразовало отрасль, обеспечив:
    - Консолидацию серверов
    - Абстракцию аппаратного обеспечения
    - Быстрое развертывание новых сред
    - Повышение отказоустойчивости и избыточности

 

Появление хостинга виртуальных частных серверов стало прямым результатом этих достижений. Теперь хостинг-провайдеры могли разделить один мощный физический сервер на несколько изолированных виртуальных машин, каждая из которых имела собственную операционную систему и ресурсы.

На этом этапе термин «VPS-хостинг» начал входить в основной IT-словарь.

 


 

Другие статьи на тему VPS в нашем Блоге:


    - Как подобрать параметры сервера при выборе VPS

    - Проблемы с производительностью VPS или Почему тормозит мой сервер?

    - Значение резервного копирования при использовании виртуальных частных серверов (VPS)

    - Для каких задач подходит VPS-сервер

 


 

 

Открытый исходный код и демократизация виртуализации

 

В то время как VMware доминировала в коммерческом секторе, сообщества открытого исходного кода разрабатывали свои собственные альтернативы. В частности:
    - Xen (выпущен в 2003 году) представил паравиртуализацию, которая обеспечивала лучшую производительность на аппаратном обеспечении x86.
    - KVM (Kernel-based Virtual Machine), объединенная с ядром Linux в 2007 году, стала де-факто стандартом для виртуализации на базе Linux.

 

Эти технологии сделали решения виртуальных частных серверов простыми и доступными. Хостинговым компаниям больше не нужны были дорогие коммерческие лицензии; они могли создавать свою инфраструктуру с помощью гипервизоров с открытым исходным кодом и инструментов управления на базе Linux.

 

Экосистема провайдеров VPS резко расширилась в конце 2000-х и начале 2010-х годов, что привело к появлению таких популярных платформ, как:
    - Linode (основана в 2003 году)
    - DigitalOcean (2011)
    - Vultr (2014)
    - 3v-Hosting (2016)

 

Каждый из этих сервисов использовал преимущества легкой виртуализации, чтобы предложить разработчикам дешевые, гибкие и масштабируемые серверные инстансы.

Эта эпоха также совпала с широким распространением облачных вычислений и DevOps, что ускорило спрос на изолированные, воспроизводимые серверные среды - именно то, что предоставлял VPS.

 

 

 

 

Контейнеры: новая волна виртуализации

 

VPS-хостинг по-прежнему остается базовой услугой, но появление контейнеров изменило подход к виртуализации. Контейнеры отличаются от традиционных виртуальных машин (ВМ). ВМ виртуализируют целые операционные системы. Контейнеры, напротив, обеспечивают изоляцию на уровне процессов при совместном использовании одного ядра. Это приводит к:
    - Меньшему потреблению ресурсов
    - Более быстрому запуску
    - Упрощению переноса

В 2013 году Docker сделал контейнеризацию доступной для разработчиков по всему миру. Kubernetes, выпущенный вскоре после этого, представил оркестрацию, которая позволила осуществлять крупномасштабное развертывание и управление контейнерными приложениями.

Важно помнить, что контейнеры не заменяют VPS, а являются дополнительным уровнем. Во многих облачных инфраструктурах контейнеры работают внутри виртуальных машин, которые работают на физических серверах.

Таким образом, модель VPS по-прежнему является основной частью многих современных структур, обеспечивая гибкий компромисс между «голыми» металлическими и контейнерными рабочими нагрузками.

 

 

 

 

VPS-хостинг в современную эпоху

 

Сегодня виртуальные частные серверы повсеместны. Они обеспечивают работу всего, от игровых серверов и платформ электронной коммерции до CI/CD-конвейеров и VPN. Их популярность можно объяснить следующими факторами:
    - Экономическая эффективность
    - Гибкость
    - Предсказуемой производительности
    - Изоляции от других пользователей

 

Облачные провайдеры, такие как AWS (с EC2), Google Cloud (с Compute Engine) и Microsoft Azure, предлагают инстансы, похожие на VPS, хотя и под разными брендами и с разными моделями биллинга.

 

В то же время традиционные провайдеры VPS продолжают процветать, предлагая:
    - Root-доступ и полный контроль над сервером
    - Более простые модели ценообразования
    - Региональное присутствие и суверенитет данных
    - Функции, ориентированные на разработчиков (предустановленные среды)

 

По мере того как виртуализация продолжает развиваться с такими тенденциями, как пограничные вычисления, бессерверные вычисления и конфиденциальные вычисления, скромный VPS остается надежной и важной частью цифровой экосистемы.

 

 

 

 

Заключение

Переход от больших мэйнфреймов к полностью изолированным виртуальным средам - это история непрерывных инноваций. От систем IBM VM/370 до современного VPS-хостинга на базе KVM виртуализации всегда расширяла границы возможностей аппаратного обеспечения. VPS-хостинг - отличный вариант, потому что он эффективен, доступен и гибок. Это результат многолетних усовершенствований аппаратного и программного обеспечения.

Виртуализация будет продолжать играть ключевую роль в разработке будущих технологий. Инфраструктура Интернета будет по-прежнему формироваться на основе трех основных принципов 1960-х годов: совместное использование ресурсов, изоляция и масштабируемость. Эти принципы могут быть реализованы с помощью легких контейнеров, микро-VM или облачных сервисов.