
Немного истории
47 постов
47 постов
10 постов
180 постов
4 поста
Их характеристики существенно превосходят показатели чипов прошлого поколения. Процессоры из предшествующей линейки Zhaoxin KH-4000 имели до 32 физических ядер без SMT, до 64 МБ кэш-памяти и тактовую частоту до 2,5 ГГц. Также они могли похвастаться наличием 128 линий PCIe 4.0 и поддержкой 8-канальной памяти стандарта DDR4.
А их прямые преемники из линейки Zhaoxin KH-5000 получили до 96 физических ядер, до 384 МБ кэш-памяти, тактовую частоту до 3 ГГц, 128 линий PCIe 5.0 и поддержку 12-канальной оперативной памяти стандарта DDR5 с коррекцией ошибок (ECC).
Помимо этого новинки будут использовать новое межсоединение ZPI 5.0, позволяющее создавать системы с четырьмя CPU. Благодаря этому пользователи смогут установить в одну материнскую плату до 384 процессорных ядер. Производитель пока не раскрывает цены и дату старта продаж процессоров серии KH-5000. Точные характеристики младших моделей семейства также держатся в секрете.
Кроме того, Zhaoxin представила потребительские процессоры линейки KX-7000N, отличающиеся от уже существующих чипов KX-7000 за счет наличия нейронного блока (NPU).
В последнее время Китай делает уверенные шаги к созданию конкурентоспособных процессоров на архитектуре х86. Однако до революции в этой области Поднебесной еще далеко. Новый чип KaiXian KX-7000 от Zhaoxin оказался перспективным, но он пока не в состоянии соревноваться с актуальными процессорами Intel и AMD. Разберем, почему.
Тесты, которые все покажут
KaiXian KX-7000 — детище компании Zhaoxin, основанной при поддержке властей Шанхая и фирмы Via. Когда-то Via считалась серьезным конкурентом Intel и AMD, но сегодня угрозы для них уже не представляет.
Процессор KaiXian KX-7000 был анонсирован еще в конце 2023 года. Ожидалось, что он сможет конкурировать с чипами Intel Core и AMD Ryzen. Но как показали первые тесты, опубликованные на портале PC Watch, чип лишь приблизился к уровням производительности четырехлетнего Ryzen 5 5600G и семилетнего Core i3-8100.
Несмотря на использование новой архитектуры, KX-7000 не смог справиться с соперниками. Даже увеличение числа ядер до восьми не помогло, так как процессор не поддерживает HyperThreading, что существенно ограничивает его возможности. Каждое из восьми ядер обрабатывает только один поток, и общее количество одновременно выполняемых потоков равно восьми. Это может ограничивать производительность в задачах, требующих высокой степени параллелизма.
Архитектура: x86 «Century Avenue»
Техпроцесс: 16 нм
Количество ядер/потоков: 8 ядер / 8 потоков
Тактовая частота: базовая 3,2 ГГц, максимальная 3,7 ГГц
Кэш-память:
Уровень L2: 4 МБ
Уровень L3: 32 МБ
Поддержка оперативной памяти: DDR4-3200 и DDR5-4800, двухканальный режим
Интерфейсы ввода-вывода:
24 линии PCIe 4.0
2 порта USB4
4 порта USB 3.2 Gen2
2 порта USB 2.0
3 порта SATA III
Интегрированная графика: ZX-C1190, поддержка DirectX 12, OpenGL 4.6, OpenCL 1.2
Мультимедийные возможности: аппаратное декодирование и кодирование H.265/H.264 до 4K
Поддержка дисплеев: интерфейсы DisplayPort, HDMI, D-Sub/VGA
Поддержка инструкций: SSE4.2, AVX, AVX2
Аппаратное ускорение шифрования: поддержка китайских стандартов SM2 и SM3
Тип корпуса: BGA и LGA (LGA1700)
В проведенных тестах KaiXian KX-7000 смог приблизиться к четырехлетнему Ryzen 5 5600G и семилетнему Core i3-8100. Даже несмотря на использование новой архитектуры, процессор продемонстрировал явное отставание. Это особенно заметно, если учесть, что KX-7000 имеет восемь ядер, тогда как у Core i3-8100 их всего четыре, а у Ryzen 5 5600G — шесть. Однако отсутствие поддержки HyperThreading свело на нет это преимущество.
Результаты тестов продемонстрировали, что KX-7000 пока уступает в производительности. Особенно заметным это было в играх, где китайский чип с интегрированной графикой проигрывал как Ryzen 5 5600G, так и Core i3-8100. Например, в Dragon Quest X KX-7000 набрал в полтора раза меньше баллов, чем Core i3-8100, и в пять раз меньше, чем Ryzen.
С использованием дискретной видеокарты AMD Radeon RX 6400 отставание уменьшилось. В бенчмарке 3DMark Time Spy китайский процессор приблизился к конкурентам, что указывает на слабость именно встроенной графической подсистемы.
По мнению аналитиков Tom’s Hardware, недостатки встроенной графики KX-7000 настолько очевидны, что ее производительность даже не стоит обсуждать. Но проблема не только в графике. Архитектура Zhaoxin значительно уступает решениям AMD и Intel в плане однопоточной производительности, которая критически важна для многих приложений.
Отдельное внимание следует уделить энергоэффективности. В ряде тестов KaiXian KX-7000 потреблял вдвое больше энергии, чем Core i3-8100, что указывает на недостатки дизайна процессора.
Создание KaiXian KX-7000 — это значительный шаг вперед для китайской индустрии. Однако пока что процессоры Zhaoxin сильно отстают от западных аналогов. Им не хватает мощности, энергоэффективности и продвинутой графики, чтобы стать конкурентоспособными на глобальном рынке.
Тем не менее, с учетом государственной поддержки и амбициозных планов китайских разработчиков нельзя исключать, что в ближайшие годы ситуация изменится. Пока же Intel и AMD могут быть спокойны: революции на рынке х86-процессоров пока ещё не произошло.
Если на электронику, содержащую в своем составе электролитические конденсаторы длительное время не подавать питание, то при последующем ее включении вы можете стать свидетелем, как из нее выйдет белый дым, и она перестанет работать.
Вы никогда не сталкивались с такой ситуацией, что при подаче питания на электроприбор, то есть при его включении, после длительного перерыва в работе, например, более года, он внезапно выходит из строя? Хотя до последнего выключения он работал исправно. А это имеет место быть. И чем больше был перерыв в работе электроприбора, тем больше вероятность его выхода из строя при включении. Нет, я не утверждаю, что при включении электроприбора в данной ситуации он обязательно выйдет из строя. Но! Вероятность этого события при этом увеличится.
Давайте разберемся, почему это происходит. Почти все электроприборы, от компьютера, до стиральной машины содержат в своем составе электролитические конденсаторы. И в этой статье речь пойдет о них, как об основных виновниках выхода из строя электроприборов. Чтобы понять физические процессы происходящие при этом в электролитических конденсаторах, рассмотрим их устройство.
Электролитический конденсатор состоит из герметичной колбы, в которую запрессованы две обкладки свернутые в спираль. Положительная и отрицательная. Положительная обкладка выполнена из алюминиевой фольги, покрытой тонкой пленкой оксида алюминия, которая исполняет роль диэлектрика в конденсаторе между обкладками.
Отрицательной обкладкой является жидкий электролит, которым пропитана бумажная лента и которая имеет гальванический контакт с неоксидированной (непокрытой пленкой оксида алюминия) алюминиевой фольгой, обеспечивающей надежный контакт между отрицательным выводом конденсатора и электролитом, благодаря их большой площади соприкосновения.
При длительном перерыве в работе, то есть при отсутствии на конденсаторе напряжения в течении этого времени, происходит постепенное разрушение диэлектрика (оксида алюминия) при его взаимодействии с электролитом в отсутствии напряжения на обкладках конденсатора. Это приводит к утончению диэлектрического слоя, к увеличению тока утечки и как следствие, увеличению вероятности пробоя конденсатора при подаче на него номинального напряжения. Этот эффект начинает проявляться при перерыве в работе конденсатора длительностью более года.
Специалисты в таких случаях рекомендуют проводить тренировку (формовку) конденсаторов, суть которой заключается в подаче на конденсатор в течении длительного времени постепенно увеличивающегося напряжения, с контролем тока утечки. При этом, подача в начале тренировки малого значения напряжения, не приведет к пробою конденсатора, и начнется процесс восстановления диэлектрического слоя (оксида алюминия) благодаря процессу электролиза. И по мере восстановления диэлектрического слоя, напряжение на конденсаторе увеличивается до номинального. Скорость увеличения напряжения определяется по значению тока утечки.
Рекомендации одного из производителей электролитических конденсаторов по проведению тренировки (риформинга).
Еще выдержка из технической документации производителя конденсаторов EPCOS.
Проведем практическую проверку этого эффекта. В качестве подопытного возьму недавно купленный на радиорынке электролитический конденсатор на 3300 мкФ., с номинальным напряжением 25 В., дата изготовления сентябрь 2016 года.
Предполагаю, что с даты изготовления, и до сегодняшнего дня на него никто не подавал напряжение. И потому для эксперимента он подходит, как нельзя лучше. Подам на него с лабораторного источника питания 25 В., и после его заряда в разрыв включу амперметр (прибор Ц-43101) для измерения тока утечки.
Отсюда видно, что ток утечки составил 35 мкА. (вся шкала прибора 250 мкА). Оставляю его под напряжением на 1 час, и повторю измерение.
В этом случае, как мы видим, ток утечки составил 7 мкА. Итого ток утечки уменьшился в 5 раз. Отсюда вывод, вышеизложенное явление подтверждено на практике.
Но не будете, же вы выпаивать из своих компьютеров и телевизоров конденсаторы для их тренировки, после их длительного перерыва в работе. Поэтому включайте свою электронику (подавайте на нее питание) хотя бы раз в год. А иначе после включения, особенно если в вашей электронике применены дешевые конденсаторы из них может выйти белый дым.
Во время моей учебы, мой преподаватель по предмету «радиокомпоненты» как то спросил у нас: так на чем работает вся электроника? Многие начали отвечать, что работает на упорядоченном движении заряженных частиц, и так далее. На что преподаватель в шутку сказал, что вся электроника работает на белом дыме. Пока белый дым находится в электронике, она работает. Как только белый дым выходит из электроники, она перестает работать. Так и в данном случае с нашими электролитическими конденсаторами, подобное может произойти.
Кроме того, электролитические конденсаторы подвержены высыханию. И это их основная проблема, каждый второй ремонт электроники по моему опыту заканчивается заменой именно этой детали. Высыхание происходит из-за плохой герметизации корпуса. Вследствие чего электролит постепенно испаряется, а поскольку он является одной из обкладок конденсатора, то и получается, что испаряется одна обкладка конденсатора. И емкость уменьшается до нуля. Опять же это зависит от качества конденсаторов. С качественными конденсаторами вероятность подобного значительно меньше. Но, к сожалению, при покупке электроники возможности изучить применяемую в ней элементную базу, какие там стоят конденсаторы не всегда возможно.
Подобных недостатков лишены полимерные конденсаторы.
Поэтому, выбирая комплектующие компьютерной техники, старайтесь выбирать комплектующие, выполненные на полимерных конденсаторах. Тем более, что во многих комплектующих визуально открыт доступ к используемой элементной базе. И легко, например, увидеть на материнской плате, какие конденсаторы применяются.
Карлсон знаком нам всем с детства, а вы когда-нибудь задумывались, как он был устроен?
Из чего был сделан пропеллер на его спине? Откуда взялся человек, обладающий недоступной для всех нас возможностью парить в воздухе? Как винт крепился к человеческому телу и вращался в нём? Почему весёлый человек был такого маленького роста?
Кем же он был: человек, робот или, может быть, кибернетический организм с электронным мозгом?
Проще всего его необычность списать на фантазию ребенка или писательницы Астрид Линдгрен, но не будем с этим спешить. Есть и доводы в пользу его реального существования.
Как, вы думаете, на самом деле был устроен странный незнакомец, так ловко жонглирующий законами физики? Давайте сегодня, 1 Апреля 2021 года, вместе найдем ответ на этот животрепещущий вопрос.
Внедрившийся в детские умы, очаровавший своей непосредственностью и харизмой персонаж. Пришедший с небес и ушедший в никуда, он вошел в доверие сразу к нескольким людям и закружил их чередой невероятных событий.
Мы знаем, что он пришёл, в буквальном смысле, с неба. Просто появился в комнате у ребенка, что примечательно, в отсутствие его родителей. Шум его мотора не привлёк ничье внимание. Карлсон обладал жизнерадостным настроением и, в то же время, не показывался посторонним на глаза.
И самый первый вопрос, который задаст себе дотошный читатель книги: «Если у Карлсона один винт, то почему его тело в полете не вращается в противоположную сторону?»
«На самолётах и вертолётах летать могут все, а вот Карлсон умеет летать сам по себе. Стоит ему только нажать кнопку на животе, как у него за спиной тут же начинает работать хитроумный моторчик. С минуту, пока пропеллер не раскрутится как следует, Карлсон стоит неподвижно, но когда мотор заработает вовсю, Карлсон взмывает ввысь и летит, слегка покачиваясь, с таким важным и достойным видом, словно какой-нибудь директор, — конечно, если можно себе представить директора с пропеллером за спиной»
Мы знаем, что у настоящих, больших вертолетов два винта. Второй, маленький, на хвосте, компенсирует энергию первого винта, предотвращая обратное вращение.
В Сети по поводу отсутствия вращения приводятся довольно убедительные версии. Рассмотрим их по одной.
1. Внутри Карлсона находится гироскоп, который своим вращением стабилизирует полет.
Но ведь речь идет о полёте. Гироскоп для этой цели получился бы слишком тяжелым. Эта версия не подходит.
2. Вторая версия состоит в том, что у тела летающего человека смещен центр тяжести. То есть, винт, как бы, расположен немного сбоку, что позволило бы слегка компенсировать вращательный момент.
В этом случае Карлсон летал бы немного боком, и это бы бросалось в глаза.
3. В третий версии Карлсон компенсирует вращение, размахивая в полете руками.
Однако этого не было: по описанию, он летал плавно и с важным видом. Такой способ противоречит литературному первоисточнику.
Пропеллер для полёта
Одним из самых достоверных объяснений, на мой взгляд, могла бы быть неточность передачи автором описания Карлсона, ведь автор происходила из крестьянской семьи, и не была знакома с устройствами вертолетов. Она не смогла заметить, что движитель для полета основывался на соосной схеме: за спиной у существа были установлены два винта, один под другим.
Как указывала сама писательница в сборнике автобиографических очерков «Мои выдумки» (Mina påhitt, 1971), она росла в век «лошади и кабриолета». Основным средством передвижения для семьи был конный экипаж, темп жизни был медленнее, развлечения — проще, а отношения с окружающей природой куда более тесными, чем сегодня.
— https://ru.wikipedia.org/wiki/Карлсон
Пропеллеры вращаются в разные стороны, отсюда и компенсация вращательного момента. Точно такие же винты вам уже хорошо знакомы по устройству моделей игрушечных вертолётов, а также современного российского вертолета соосной схемы КА-50.
Обратим внимание, что выход книги свершился в 1955 году. Не так давно отгремела Вторая Мировая война, а в период войны разработки новых вооружений и способов повышения боеспособности личного состава развивались как никогда. Вспомним «усилители выносливости», применявшиеся армиями Германии, японские исследования пределов человеческого организма, довоенные эксперименты Воронова по пересадке эндокринных органов, советские эксперименты по выведению сверхчеловека и послевоенные опыты Демихова по пересадке голов собакам.
Поскольку наиболее вероятной схема размещения пропеллера видится соосной, то возникает очередной вопрос:
«А как такое устройство могло работать в живом теле? Как было устроено тело невысокого мужчины, чтобы у него была возможность раскрутки пропеллера до такой скорости, чтобы можно было подняться в воздух?»
Ведь ничего подобного в живой природе не встречается. Животные летают или за счет взмахов крыльев, как птицы, летучие мыши и насекомые, или парят на перепонках из кожи, как белки-летяги.
Посмотрим, как устроены тела у летающих живых существ. У птиц кости полые, трубчатые или губчатые, заполненные внутри воздухом, что снижает вес птицы. А прочность костям придают имеющиеся внутри перегородки. Для стабилизации полета птицы используют перья. Как мы знаем, перьев у Карлсона не наблюдалось, однако костная система должна была быть схожей.
Но как мог пропеллер крепиться к человеческой плоти? С одной стороны, в книге утверждается, что он приводился в действие кнопкой, которая запускала мотор. Возможность размещения металлического мотора в живом организме кажется ничтожной, ведь у такого мотора должен быть неимоверно маленький вес и просто невероятный КПД!
Видимо, для вживления в тело были использованы облегченные композитные материалы. Новые для того времени материалы позволили снизить вес до уровня, приемлемого для поднятия организма в воздух. Отсюда и невысокий рост подопытного летуна. Чтобы было легче поднимать человека в воздух, его рост должен быть как можно меньше, недаром ростом Карлсон был ниже Малыша.
Именно в Швеции был запатентован первый корабельный винт. Шведы первыми принесли в мир динамит, УЗИ и первую телефонную трубку. Невероятные для своего времени изобретения шведов и, в особенности, корабельный винт, наталкивают на мысль, что именно в Швеции могли изобрести нечто подобное.
Для управления полётом, даже для соосной схемы размещения несущих винтов, Карлсон должен был управлять креном и тангажом своего лёгкого тела. Его корпусу был необходим автомат перекоса. Где же его взять, тело уже и так утяжелено инородными материалами в виде мотора? По видеоматериалам, представленным советскими мультфильмами, мы помним, что Карлсон не имел трудностей и с полетом вверх ногами.
Современные авиамодели тоже могут летать вверх ногами, и это также становится возможным при использовании автомата перекоса.
Все объясняется довольно просто. Похоже, что автомат перекоса — одно из самых технологичных изменений в теле несчастного подопытного. Во избежание отторжения, он должен был состоять из тех же трубчатой костной и хрящевой тканей и сухожилий, а управляться — мышцами по воле своего владельца. По всей вероятности, хирург тщательно собрал такую конструкцию и вживил в тело, а может быть, вырастил уже внутри тела в процессе его развития, например, применяя инструменты типа аппарата Илизарова.
Для стабилизации полёта в авиамоделях, действительно, применяется гироскоп — но это уже не механическое, а электронное устройство, и во время войны таких ещё не было изобретено. И тут опять приходится задействовать природные органы: в роли гироскопа, стабилизирующего полёт, у Карлсона просто-напросто выступал его вестибулярный аппарат.
Да и мотор ли это был? Возможно, что и лопасти приводились в движение мускульной силой, а звук при работе "мотора" мог исходить от урчания в животе при переработке высококалорийной пищи — ведь взмахи лопастей требуют огромного количества энергии, для этого у существа должен быть сильно ускорен обмен веществ.
Можно допустить, что в организме Карлсона лопасти крепились по отдельности, как у стрекозы, и каждая управлялась отдельными мышцами. И предположить, что автомат перекоса был выполнен еще проще, когда мышцами изменялся угол наклона всего "двигателя" вместе с пропеллерами и ротором.
Отсюда следует, что инстинктивно Карлсон летать, в отличие от животных, не умел, а долго учился управлять мышцами автомата перекоса, скоростью вращения винтов, приучать свой вестибулярный аппарат к нахождению в воздухе...
Помните, как Карлсон убеждал Малыша в необходимости особенной пищи, которая ему подходит: сладостей и варенья? Это была не прихоть, а жизненная необходимость: ему нужна высококалорийная пища, богатая "быстрыми" углеводами. Такая еда быстрее всего перерабатывается в энергию и работает в качестве "топлива".
Лопасти пропеллера, скорее всего, тоже были органическими, как, например, крылья у летучей мыши. Из костной ткани и кожистых перепонок. Как и у летучей мыши, они могли быть складными, растягиваясь перед полётом.
Мы помним про существование кнопки пуска мотора на животе у Карлсона, которую он нажимал, желая полететь.
Учитывая натуральную природу мотора, для этого хирургам пришлось бы сплести пучок из нервных окончаний, ответственных за запуск ускоренного метаболизма. Видимо, задумывалось, что Карлсон мог взлетать не только по своей воле, но и по желанию командира отряда подобных существ. К тому же, нет доказательств, что существо изначально планировалось создавать разумным. Мозг мог быть использован не человеческий, а от животного, к примеру, собачий. Вспомним опыты Владимира Демихова. А управлять существом можно было бы и извне, например, голосом, как собаками, обезьянами или дельфинами, или посредством радиоволн. В таком случае сгусток нервов пришлось бы вывести в район солнечного сплетения. Прикоснулся к грудной клетке подопечного — он приступает к выполнению боевой задачи.
Во Второй Мировой войне Швеция соблюдала нейтралитет. Но ей ничего не мешало проведению секретных экспериментов в военной сфере, чтобы не отставать от других стран в развитии технологий.
Высвободившиеся от необходимости тратить на войну средства могли пойти на усиление обороноспособности страны. Швеции нужны были воины, умеющие то, что не умеют солдаты других стран. Нужно было иметь превосходство над потенциальными противниками.
Понятно, что первым делом пытались создать электронного солдата.
Такая идея витает давно и до сих пор не воплощена в жизнь. А во время войны вся электроника базировалась на вакуумных лампах. Их вес никак не мог подходить для полёта небольших летательных аппаратов. Первый транзистор был создан только после войны, в 1947 году.
Не приходилось говорить и о создании искусственного интеллекта на устройстве из вакуумных ламп, чтобы все поместилось в корпус размером с человеческую голову. Могли ли во время войны создать полностью электронный мозг? Конечно же, нет. При создании прототипа искусственного солдата шведам неизбежно пришлось бы задействовать мозг живого существа.
Возможно, что кому-то из шведских хирургов удалось срастить импланты из легковесных искусственных материалов с костной системой человека без отторжения. Несомненно, хирург за такие заслуги получил бы Нобелевскую премию, если бы не секретность его работ. Альфред Нобель тоже был шведом, и это был как раз тот человек, который изобрел динамит. У вас еще остались сомнения в возможности причастности Швеции к подобным разработкам?
Была ли такая модификация организма добровольной? Можно только представить, через какие мучения прошёл человек для обретения сомнительной возможности для полёта. По своей ли воле он оказался на операционном столе? Или же, наоборот, модификация вернула к жизни израненного солдата? Этого мы не знаем, но можем отметить, что Карлсон появляется, когда ребенок находился в комнате один. Он нашёл свое пристанище на крыше в помещении за большой трубой, скрывающей жилище от посторонних взглядов.
Совершенно очевидно, что летающий незнакомец считал необходимым скрываться. Нужно ли существу, спасшемуся из застенок шведских секретных служб, лишнее внимание? Вряд ли.
Что происходило дальше? Прототип нового солдата в поисках пропитания увидел ребенка, попавшего в беду. Что он подумал? Возможно, он увидел в детских глазах такое же ощущение одиночества и непонятости, какое-то отражение себя, и решил помочь, при этом, не раскрывая себя. И вернул ребёнку тягу к жизни.
Вероятно, прототип солдата будущего просто-напросто сбежал от спецслужб во время своих испытаний. Возможно, он не вытерпел пыток при создании или, впоследствии, принуждению к участию в военных операциях. Однако он мог быть ими и отпущен.
Война закончилась, а с ней и вынужденная жестокость в обращении с людьми. Эксперимент мог быть признан неудачным не только по техническим причинам, но также и по гуманным. Никто бы не похвалил Швецию за проведение таких бесчеловечных экспериментов над людьми. Вот Карлсона и отпустили при условии сохранения тайны его существования.
Во всём мире описан только один Карлсон. То, что он существовал в единственном экземпляре, подтверждает версию о его существовании как прототипа во время какого-то опередившего своё время эксперимента.
А может, он был всегда весёлым и заражал всех хорошим настроением, потому что уже и не надеялся обрести вторую жизнь, но которую, через тяжёлые испытания, он обрёл вместе с новым телом — настоящим шедевром шведской науки!
Создатели консолей часто экспериментируют. Порой в магазины попадают настолько странные гаджеты, что на их фоне даже гибридная Nintendo Switch со съемными джойконами выглядит классической, как Ленинградская симфония Шостаковича. Взять хотя бы приставку со встроенным рулем, портативку с механической рукояткой на боку или настольный аркадный автомат!
Консоли эпохи диско были весьма своеобразными. Надо отдать их разработчикам должное: в то время вообще никто не знал, как должна выглядеть игровая консоль. Все были первопроходцами и действовали буквально на ощупь. Поэтому иногда получался гибрид дробовика и грузовика вроде Coleco Telstar Arcade.
Каждую грань треугольного корпуса этой консоли оснастили отдельными органами управления: рулевым колесом, световым ружьем, парой геймпадов. Во что хотите поиграть, с такой стороны и садитесь. Игры (а их для приставки вышло аж четыре штуки) поставлялись на стильных картриджах в виде серебристых треугольников, которые нужно было размещать на вершине консоли. По меркам тех лет — научная фантастика уровня «Звездного пути», не меньше.
Дизайн этой консоли формата «все включено» явно вдохновлен игровыми автоматами. Впрочем, уникальной ее делает кое-что другое. Во-первых, Vectrex — редкий пример домашней игровой системы, которой не нужен телевизор, ведь у нее есть собственный экран. Во-вторых, экран этот хоть и черно-белый, зато векторный. Четкие линии вместо пикселей размером с кулак — для 1982 года это было настоящим графическим прорывом. А цвета изображению придавали пластиковые наклейки, которые нужно было лепить на монитор.
Аксессуары к Vectrex тоже предлагали передовые. Световое перо Light Pen позволяло рисовать прямо на дисплее и даже создавать анимацию, а 3D Imager и вовсе стала первой в истории консолей VR-гарнитурой. Неудивительно, что энтузиасты до сих пор пишут под Vectrex новые игры и даже издают их физические копии. Это ли не показатель успеха?
Один из главных недостатков портативных гаджетов — маленький дисплей. Создатели Funsation Off-The-Wall Projector решили эту проблему, совместив в одном условно компактном корпусе игровую консоль и переносной проектор на батарейках. У каждого картриджа с игрой был свой экран, через который изображение и проецировалось хоть на стену, хоть на потолок.
Сегодня игры уровня «Волк ловит яйца» не слишком впечатляют, но сама концепция, согласитесь, интересная.
Японский эксклюзив, в котором консоль скрестили с графическим планшетом. Причем неплохим: Picno поддерживала до 160 цветов на экране, что намного лучше NES (пускай и похуже Super NES). Полученный гибрид лучше подходил для рисования, чем для игр, но последние тоже были, хотя в основном образовательного свойства.
К сожалению, Picno не выдержала конкуренции с Sega Pico, которая предлагала большую мощность и богатую игротеку. Удешевленная Picno2 тоже не выстрелила. А жаль, девайс-то был действительно классный.
Наверняка все, кто интересуется темой необычных консолей, слышали об этом чуде (или чудовище?) инженерной мысли. Однако было бы преступлением не вспомнить первую портативку с поддержкой стереоскопического 3D. Почти за четверть века до всяких там Oculus Quest!
К сожалению, картинка была сугубо черно-красной, а конструкция очков на ножках — ужасно неудобной. В итоге Virtual Boy стала самым главным провалом Nintendo, ее единственной консолью, проданной тиражом меньше миллиона единиц. И никакие эксклюзивы не помогли. Зато в 2011-м «Большая N» взяла реванш на поле стереоскопии со сверхпопулярной 3DS.
Однако про Virtual Boy в подобных подборках говорят часто, а вот другую странную портативку из того же 1995 года нередко забывают. С первого взгляда вообще довольно сложно признать в R-Zone игровое устройство. Она крепилась на голову при помощи повязки и проецировала изображение на крошечный прозрачный экранчик прямо перед глазами игрока.
Возможно, дело было в слишком примитивных играх, возможно — в монохромной красной картинке, но убийство Gameboy в очередной раз не состоялось. Компания Tiger Electronics выпустила несколько более традиционных вариантов консоли, которые не надо было носить на лбу, однако картину они не поменяли.
R-Zone так и осталась в истории игрового железа символом никому не нужного творческого эксперимента.
Один из главных производителей мобильных телефонов тоже решил сыграть в консоледержателя… и проиграл. Слияние портативной игровой консоли и мобильника провалилось. Причем достоинств-то у N-Gage хватало. Далекий предок современных игровых смартфонов получился чертовски мощным агрегатом, способным выдавать 3D-графику уровня первой PlayStation.
Для хэндхелдов того времени — внушительное достижение. На N-Gage выходили громкие франшизы вроде Tomb Rider и Tony Hawk’s Pro Skater. А еще там была бесплатная «Змейка»! Устройство поддерживало мультиплеер через Bluetooth и мобильные сети. Но все это не помогло.
«Консолефон» вышел слишком дорогим, громоздким и неудобным. На старте за N-Gage просили 299 долларов: примерно втрое больше, чем за главного конкурента Gameboy Advance.
Процессор: ARMv4 ядро на частоте 104МГц, что было стандартом для многих телефонов в те годы (например Siemens на платформе S-Gold работали на той же частоте, а E-Gold — вдвое меньшей). Скорее всего, процессор собственной разработки Nokia.
Память: 16Мб SDRAM ОЗУ и 16Мб ПЗУ, раздельно. Иногда флэш-память изнашивалась и в СЦ её нередко меняли. Мои читатели, которые в нулевых работали в СЦ наверняка вспомнят о «бутербродах» на некоторых телефонах :)
Дисплей: 2.1" матрица с разрешением 176x208 и глубиной цвета 12-бит (4096 цветов), выполненная по технологии CSTN (хотя возможно и TN). Для тех лет, диагональ дисплея и его разрешение были оптимальными, круче были только коммуникаторы с 2.4" дисплеями 240x320. Фактически все (или почти все) смартфоны Nokia на Symbian тех лет использовали одну и ту же матрицу, с чуть разной длинной шлейфа (просто где-то её переворачивали вверх-тормашками, как на N70).
ОС: Symbian 6.1
Аудиовыход: 2.5мм джек (моно)
Чтобы сменить картридж, нужно было доставать аккумулятор, а при звонке — держать телефон боком из-за неудачного расположения динамика. Выход упрощенной и удешевленной N-Gage QD не спас ситуацию. Nokia больше не возвращалась на консольный рынок.
Самая крошечная консоль в мире. Она не просто размером с брелок для ключей — это буквально брелок длиной три сантиметра и весом 4,7 грамма.
При этом у нее есть однобитный OLED-дисплей с разрешением 72×40 пикселей, аж 2 МБ памяти, аккумулятор емкостью 40 мАч, обеспечивающий до двух часов игры на одном заряде, и даже поддержка мультиплеера по соединительному кабелю. Да-да, две консоли даже можно соединить кабелем и играть в мультиплеерном режиме.
Если кому-то не хватит шести предустановленных игр, можно создать новые при помощи визуального программирования в Blockly. Серьезная вещь.
Пользователи смогут создавать собственные игровые приложения с помощью языка MicroPython или Arduino IDE. «Из коробки» в Thumby встроены пять ретро-игр: Тетрис, Змейка, космический симулятор, раннер с динозаврами и RPG в подземелье.
Цена Thumby составляет $24 или 1700 рублей.
Playdate выглядит так, словно ее разработали лет 40 назад, хотя вышла в 2022 году. Помимо ярко-желтого корпуса и монохромного дисплея эта консоль выделяется аналоговой ручкой на боку. Вращая ее, можно, к примеру, управлять скоростью и направлением течения времени в Crankin's Time Travel Adventure. Опыт очень необычный.
Для консоли доступно несколько сотен игр, и пользователи сами активно делают новые.
Некоторые игры из первого сезона:
Inventory Hero
Sasquatchers
Snak
Saturday Edition
QUESTY CHESS
Omaze
Zipper
Casual Birder
Star Sled
Demon Quest 85
Crooked Park
Есть все основания полагать, что оригинальную маленькую Playdate ждет пускай нишевое, но вполне светлое будущее.
Настоящая находка для ретрогеймера должна выйти в продажу уже в конце ноября. Evercade Alpha — настольный аркадный автомат. Совсем как настоящий, только маленький: с 8-дюймовым экраном формата 3:4, кнопками прямо на корпусе и шестью предустановленными играми из линейки Street Fighter или Mega Man — в зависимости от издания.
Если этого мало, Alpha поддерживает картриджи Evercade — а это больше 500 классических игр. И никакой вам загрузки из интернета.
Даже среди серийных продуктов странных девайсов так много, что можно отдельную книгу написать. Причем далеко не все они стали коммерческими провалами, но все без исключения вошли в историю. А это лишний раз подтверждает простую истину: быть не таким как все действительно круто.
Обычно смелые и необычные эксперименты — удел стартапов. Но подчас даже авторитетные компании выпускают такие своеобразные устройства, что поверить трудно. Вспомним несколько таких гаджетов: смешных, оригинальных, курьезных, а порой и опередивших свое время.
Слово Portable в названии этого агрегата выглядит иронично. Только настоящий фитнес-энтузиаст мог бы назвать портативным чемодан массой в семь с лишним кило! Большая их часть приходилась на огромный кислотно-щелочной аккумулятор. Причем избавиться от него было нельзя, ведь с разряженной батареей Macintosh Portable не включался даже от сети — комплектный зарядник не справлялся. Упоминать про лишенный подсветки 9,8-дюймовый дисплей, которым невозможно было пользоваться в темноте, даже как-то неспортивно. При всем этом первый лэптоп Apple стоил как автомобиль — 7300 долларов. Вспоминайте его, когда ваш ноутбук покажется слишком тяжелым или дорогим.
Консольные эксперименты — любимый конек Nintendo. Некоторые, например 3DS или Wii, оказались успешными. Другие, вроде Virtual Boy или Power Glove, провалились. Девайс привносил на NES управление жестами — и оно толком не работало даже с играми, которые были специально созданы под Power Glove (а таковых было аж целых две). Что уж говорить про все остальные! На всякий случай манипулятор оснастили традиционными кнопками… где-то в районе предплечья. Играть с обычным геймпадом было куда приятнее, чем тратить нервы на футуристичную, но неотзывчивую, неточную и неудобную Power Glove. Впрочем, выглядела киберперчатка круто — этого у нее не отнять.
Инженеры Casio всегда пытались превратить часы в нечто большее, чем обычный хронометр. Прадедушку современных smartwatch снабдили весьма солидным функционалом вроде калькулятора, телефонной книги и мирового времени. Причем производитель был настолько уверен в сенсорном управлении, что лишил громоздкие часы короны и вообще любых физических кнопок. Правда, крохотный монохромный тачскрин реагировал через раз, корпус был громоздким, а мощностей железа едва хватало для работы электронного органайзера. Пять за предвидение будущего — двойка за реализацию.
Идея умного ТВ родилась в стенах «яблочной» компании задолго до Apple TV. Еще в октябре 1993 года на свет появился гибрид компьютера и 14-дюймового CRT-телевизора Sony Trinitron с ИК-пультом в комплекте. Правда, одновременно использовать ТВ и ПК было нельзя. Плюс, как и большинство технических химер, Macintosh TV толком ничего не умел. Запредельная цена в $2099 и слабое железо добили новинку. Продать удалось что-то около 10 000 штук, и через год девайс канул в Лету. Зато он навсегда остался в истории как первый компьютер Apple черного цвета.
В первой половине 90-х все были без ума от Doom и других 3D-игр. Чтобы сделать управление в них предельно удобным, в Logitech скрестили мышь и джойстик. Получилось плохо. Да, CyberMan предлагала целых шесть степеней свободы, поддерживала наклоны и даже давала обратную связь (редкая штука для тех далеких времен). К сожалению, контроллер вышел слишком сложным, страдал от плохой эргономики и мгновенно утомлял. Второе поколение CyberMan вышло еще более странным, чем первое, и популярности тоже не снискало. В итоге эти устройства так и остались лишь символами инноваций, которых очень не хватает игровой периферии сегодня.
Обойтись в этом материале без устройства Microsoft было бы неправильно. Но Zune и Kin не обсудил, кажется, только ленивый. А вот поющего фиолетового динозавра, которого нужно было подключать к видеомагнитофону по радиоканалу, вспоминают гораздо реже. Немудрено: интерактивные игрушки серии ActiMates были дорогими, сложными и, чего греха таить, жутковатыми. Зато они могли петь, танцевать и даже разговаривать с ребенком. Словарный запас ящера Барни достигал 14 000 слов! К сожалению, чтобы выжать из кукол все возможное, нужно было отдельно покупать специальный ресивер и видеокассеты, а потом еще возиться с настройкой. Технические ограничения VHS и всеобщий переход на DVD поставили на ActiMates крест: интерактивные игрушки продержались на рынке всего три года. Зато у них была версия с телепузиками.
В истории Nokia хватало странных телефонов, но аппарат с индексом 7280, пожалуй, самый своеобразный из них. Даже сложно поверить, что эта губная помада для роботов — полноценный мобильник на базе Symbian OS. Экран не был сенсорным, а место традиционной цифровой клавиатуры заняло прорезиненное колесико с кнопкой по центру. Такая схема управления подошла бы MP3-плееру, но уж точно не мобильнику. Даже элементарно набрать номер на таком гаджете было большой проблемой, что уж говорить про SMS. Тот случай, когда модный дизайн победил логику. Впрочем, ничто не помешало Nokia выпустить еще несколько «дамских» моделей в аналогичном форм-факторе.
Интересный планшет, который опередил моду на складные экраны и провалился. Ни о каких гибких матрицах тогда не шло и речи: два 5,5-дюймовых дисплея разделяла толстенькая рамка. Tablet P нормально работал с очень ограниченным набором фирменного софта и не позволял выводить разные приложения на экраны одновременно. К тому же девайс получился слишком громоздким: весил без малого 400 г при толщине 28 мм — в карман такой кирпичик не положишь. Немудрено, что попытка объединить Android-планшет с Nintendo DS провалилась. От обычной клавиатуры вместо второго экрана толку было бы значительно больше.
В свое время Samsung тоже не чуралась экспериментов. Яркий пример — смартфон со встроенным DLP-проектором. Правда, сам проектор был на редкость тусклым (всего 15 лм) и выдавал картинку в жалком разрешении 640х360 пикселей при диагонали проекции до 50 дюймов. Максимум, на что годился такой гаджет, — смотреть диафильмы под одеялом. Как смартфон Galaxy Beam тоже звезд с неба не хватал: был весьма увесистым, не слишком мощным и довольно дорогим (рекомендованная цена — 539 евро на старте). Все это предопределило его скромную популярность.
Хотите, чтобы покупатель фотокамеры сразу понял: она создана специально для молодежи? Сделайте корпус в виде иконки соцсети! И не важно, если в результате получится предельно неуклюжий кирпич со встроенным принтером. Главной фишкой Socialmatic стало умение мгновенно печатать снимки размером 2х3 дюйма на специальной бумаге ZINK без использования чернил, а заодно сразу публиковать их в интернете. К сожалению, камера снимала и печатала одинаково плохо, а ОС Android на борту жестоко тормозила. Осовременить ретро-стиль моментальной фотографии Polaroid у разработчиков не получилось.
P/S
Подобных неудачных экспериментов было очень много, от явной наркомании до чересчур опередивших своё время как смартфон IBM Simon 1992 года имевший сенсорный экран и не имевший клавиатуры.
Seiko TV Watch — 1982
На разработку часов было затрачено сто миллионов иен. В начале Тв-часы можно было купить только в Токиио и Осаке. В начале модель часов DXA001 продавались за 108000 иен, но когда часы стали продаваться и появилась новая модель DXA002 по всей Японии, их цена упала до 98000 иен (В то время это было примерно 500-600 евро)
Устройство часов:
Часы имели размер 40*49*10 мм , часы и ремешок были сделаны из нержавеющей стали, в часы размещалась батарейка с монету типа SR920W, вес часов был 80 грамм, приемник с 2 щелочными батарейками ААА весил 190 грамм.
У часов был ну очень шумный спикер дисплей имел 1,2 дюйма , подсветка была белой или синей в зависимости от модели. Часы могли проработать 5 часов от одного комплекта батареек. Внешний тюнер позволял ловить от 2 до 83 каналов имелся FM-стерео радио приемник. Так же часы могут работать как секундомер и как будильник.
Как видите, даже крупные, известные и чрезвычайно успешные компании иногда ошибаются. Но именно такими ошибками вымощена дорога технологиям, которые мы используем сегодня. Так что скажем их авторам спасибо за смелость. Ведь кто знает: может, через десять лет мы будем смеяться над тем, что сейчас считаем вершиной прогресса.
Thunderbolt — один из разъемов, который можно встретить на современных ПК и ноутбуках. Он менее распространен, чем USB, но куда более функционален. Как устроен интерфейс Thunderbolt, что он умеет и как работает?
Thunderbolt — совместная разработка компаний Intel и Apple. Главная идея проста: передавать как различные данные, так и потоки видео с помощью одного кабеля. Для этой цели объединили возможности PCI-Express и DisplayPort. Контроллер Thunderbolt позволяет использовать возможности любого из этих интерфейсов.
С помощью режима DisplayPort можно передавать цифровые потоки видео. Для этого не требуется специального оборудования. Стоит подключить к разъему Thunderbolt любой монитор с DisplayPort, и картинка на него выведется автоматически. В режиме передачи PCI-Express интерфейс работает наподобие порта PCI-E на материнской плате. Но в используемом устройстве тоже должен быть контроллер Thunderbolt, который преобразует сигнал обратно в линии PCI-E.
Как и в случае с картами расширения PCI-E для компьютера, эти линии можно использовать для подключения самого разного оборудования. В том числе внешних видеокарт, устройств захвата, различных накопителей, звуковых карт, сетевых адаптеров. В док-станциях для ноутбуков могут реализовать функции сразу нескольких устройств и интерфейсов. Например, USB-хаба, портов HDMI и DisplayPort, звуковой карты, сетевого адаптера и картридера.
Всего один разъем Thunderbolt может взаимодействовать сразу с несколькими устройствами. Для этого в каждом из них должен быть контроллер Thunderbolt с двумя соответствующими разъемами. Такие устройства могут подключаться друг к другу по цепочке, одно к другому. Если последним звеном в ней является монитор с интерфейсом DisplayPort, для него контроллер необязателен. Так можно использовать до шести устройств. Начиная с Thunderbolt 4, поддерживаются и соединения с помощью хабов-концентраторов — аналогично интерфейсу USB.
Thunderbolt не использует какого-то проприетарного разъема. Первая и вторая версия интерфейса в качестве него применяли Mini DisplayPort. Благодаря этому подключать мониторы с DisplayPort было максимально просто: не нужно было искать какой-то особый кабель.
В разъеме Thunderbolt первого и второго поколения используется 20 контактов.
Два контакта низкоскоростной линии передачи данных.
Восемь контактов образуют четыре соединения высокоскоростной передачи данных. Каждая пара соединений объединена в одну линию.
Контакт сигнала «горячего» подключения.
Контакт подачи питания.
Восемь контактов заземления.
При передаче видеопотока назначение контактов не отличается от таковых в родительском разъеме DisplayPort. В режиме PCI-E высокоскоростные линии переключаются в альтернативный режим. Каждая из них может передавать данные на скорости 10 Гбит/c. В первой версии Thunderbolt линии работают в фиксированном режиме: одна — на передачу, другая — на прием.
В Thunderbolt 2 обе могут использоваться для передачи данных в одном направлении. Это увеличивает пропускную способность до 20 Гбит/c. В Thunderbolt 3/4/5 в качестве разъема стали использовать 24-контактный USB Type-C. Контроллеры были переработаны. К режимам PCI-E и DisplayPort добавили еще один с передачей интерфейса USB. Так что с третьей версии любой порт Thunderbolt может работать и как обычный USB Type-C. Для этого контроллер соответствующим образом переназначает контакты.
Для режима PCI-E все так же используются четыре физических соединения, объединенные в две высокоскоростные линии. Но благодаря увеличению частоты сигнала их пропускная способность заметно выросла. В Thunderbolt 3/4 скорость в каждую сторону составляет 40 Гбит/c.
В Thunderbolt 5 частоту увеличили еще вдвое, так что пропускная способность в каждую сторону достигла 80 Гбит/c. Дополнительно в нем ввели альтернативный режим Bandwidth Boost. Он меняет распределение соединений по линиям. Теперь три соединения могут передавать данные в одну сторону, а одно соединение — в другую. Благодаря этому скорость передачи данных на подключенное устройство может повышаться до 120 Гбит/c, а с обратно с него — снижаться до 40 Гбит/c.
Разные версии отличаются по возможностям подачи питания. Порты Thunderbolt 1/2 могут отдавать подключенному устройству максимум 10 Вт мощности. С третьей версии Thunderbolt базовый лимит подняли до 15 Вт. Также появилась совместимость с протоколом USB Power Delivery. Благодаря ему интерфейсы Thunderbolt 3/4 могут передавать устройствам до 100 Вт мощности, а Thunderbolt 5 — до 240 Вт.
Не все ПК и ноутбуки с подобными разъемами могут отдавать столько энергии. Реальный потолок мощности зависит ограничений на конкретном устройстве.
Кабели для интерфейса Thunderbolt существуют двух видов: оптические и медные. Оптические могут передавать только данные. Они совместимы не со всеми устройствами. При этом их длина может достигать невероятных 60 метров.
Обычные медные кабели ограничены одним-двумя метрами. Но зато работают со всеми устройствами, передавая им и данные, и питание. Реже встречаются более длинные медные кабели, оснащенные микросхемами-усилителями. Они способны передавать данные на более длинные расстояния, но передача питания по ним ограничена. Из-за высоких скоростей и приличной мощности Thunderbolt крайне требователен к качеству кабелей. Взять любой из них, получив на выходе 120 Гбит/c и 240 Вт, не выйдет. Каждый кабель Thunderbolt тестируют на определенных скоростях и мощности — в зависимости от длины, толщины и качества используемого в проводниках материала.
На практике многие кабели нередко могут передавать данные быстрее, чем указано на упаковке. Но гарантии на это никто не дает. При появлении ошибок контроллер Thunderbolt автоматически опустит скорость до более низких значений.
Превышение указанной электрической мощности еще более опасно. При использовании 100-ваттного кабеля для передачи устройству 150 Вт он может перегреться. Итогом станет поломка и устройства, и контроллеров.
Thunderbolt впервые появился в ноутбуке MacBook Pro 2011 года выпуска. Этот порт до сих пор остается ключевым элементом компьютеров и ноутбуков Apple. За их пределами интерфейс первой и второй версии встречался редко. Разве что в редких флагманских ноутбуках и топовых материнских платах для декстопных ПК.
С выходом Thunderbolt 3 интерфейс стал более распространенным. Не в последнюю очередь за счет разъема Type-C: его многие производители стали внедрять намного охотнее, чем Mini Display Port. Впрочем, в среднебюджетных ПК и ноутбуках Thunderbolt и сегодня не встретить. Причина проста: интерфейс требует отдельного контроллера, разведения линий PCI-E с чипсета и организации передачи изображения с видеокарты. Конкурирующий USB реализовать проще. В нем альтернативные режимы передачи обычно опциональны. А поддержку базовой функциональности с успехом обеспечит любой современный чипсет материнской платы.
Сравним характеристики различных версий Thunderbolt. И заодно противопоставим им последние версии интерфейса USB.
* опциональная функциональность
** со сжатием Display Stream Compression
На первый взгляд спецификации Thunderbolt 3 практически повторяет USB 4 первой версии, а Thunderbolt 5 схож с USB 4.0 v2.0. Но, если смотреть внимательнее, можно увидеть заметное отличие. Многие режимы для USB опциональны, а для Thunderbolt они являются обязательными. К тому же, USB не поддерживает цепочки из устройств. Для подключения нескольких девайсов придется в обязательном порядке воспользоваться USB-хабами.
Thunderbolt — самый прогрессивный внешний интерфейс для компьютеров и ноутбуков. Широкая функциональность и высокие скорости делают его недостижимым для конкурентов. Но прогрессивный — не значит распространенный. В этом и заключается слабость Thunderbolt: он до сих пор мало встречается как в компьютерах, так и на внешних устройствах. А с выходом USB4, перенявшем большую часть его функций, Thunderbolt еще больше рискует остаться нишевым решением.
Впрочем, в некоторых задачах этот интерфейс может быть крайне полезен. В первую очередь — для подключения внешних видеокарт к ноутбукам. Там, где скорости USB опциональны, Thunderbolt всегда готов выложиться на максимум. В этом — его главная сила.
Большинство современных мониторов имеет одно из трех популярных разрешений: базовое Full HD, среднее 2K или старшее 4К. Однако в продаже немало моделей, которые оснащены матрицами с другими, нестандартными разрешениями экрана. Для чего предназначены такие мониторы, и для каких сценариев они могут пригодиться?
Экраны мониторов и телевизоров начинали свой путь с соотношения сторон 4:3. В конце прошлого века пользователи компьютеров повсеместно использовали «пузатые» мониторы на основе электронно-лучевых трубок (ЭЛТ). Однако уже в начале 2000-х стало появляться все больше и больше моделей на основе жидкокристаллических дисплеев (ЖК). Первые из них тоже имели соотношение сторон 4:3, но вскоре основная масса таких мониторов стала выпускаться в формате 5:4 — то есть, еще более «квадратном».
Не успели ЖК-дисплеи полностью вытеснить ЭЛТ, как индустрия стала двигаться к широкоформатному изображению. В 2005-2006 годах появилось множество мониторов с соотношением 16:10, но такой формат оставался популярным недолго. Уже к 2009 году большинство новых моделей получили более «узкие» экраны 16:9. В дальнейшем именно это соотношение сторон окончательно закрепилось как наиболее универсальное.
С тех пор и по сегодняшний день формат 16:9 остается стандартным как для компьютерных мониторов, так и для телевизоров. Но, в отличие от прошлых лет, сейчас практически не встречаются мониторы с разрешением ниже Full HD (1920x1080) — сегодня эта планка принята в качестве базовой. Более продвинутые модели оснащаются матрицами 2К (2560х1440), а для любителей максимально четкой картинки предназначены мониторы с разрешением 4К (3840х2160).
При этом на рынке представлено немало мониторов с другими разрешениями и соотношениями сторон, которые отличаются от общепринятого 16:9.
Набирающий популярность сверхширокий формат монитора (UltraWide), в котором представлены множество различных моделей. Бюджетные оснащены панелями с разрешением 2560х1080, более продвинутые — 3440х1440 и 3840х1600, а флагманские — 5120х2160.
По сравнению со стандартным, формат 21:9 расширяет обзор по горизонтали, но делает это достаточно умеренно — примерно на треть. В играх это позволяет иметь больший угол обзора, что нравится некоторым геймерам.
Именно поэтому большинство таких моделей — игровые мониторы. Вдобавок к этому, многие из них имеют изогнутый экран для усиления погружения. В отличие от изогнутых мониторов с классическим соотношением 16:9, здесь это гораздо более уместно — при такой ширине плоскую картинку действительно трудно обхватить взглядом.
Помимо игр, подобные мониторы как нельзя лучше подходят для просмотра фильмов — ведь именно с таким соотношением сторон снимается большинство современных кинолент. На традиционных моделях формата 16:9 (как и на современных телевизорах) они воспроизводятся с черными полосами сверху и снизу, а на мониторах 21:9 — во весь экран.
Но для сериалов и любительских видеозаписей в формате 16:9 это не лучший вариант — в них черные полосы появятся по бокам. А при просмотре фотографий и старых видеозаписей в формате 4:3 ситуация еще хуже: почти половина экрана в этом случае остается незадействованной.
В рабочих сценариях у таких моделей свои плюсы и минусы. К примеру, они могут обеспечить удобное использование двух приложений, если выделить каждому окну по половине экрана. При запуске одного окна во весь экран преимущества можно увидеть в тех программах, где важна ширина экрана — таких, как редакторы видео или аудио.
В прочих приложениях сверхширокий экран не играет особой роли в комфорте использования. А в некоторых даже вредит: например, в офисных программах или браузере на таком мониторе нередко будет оставаться много неиспользованного места.
Максимально широкий формат, получивший неофициальное название Super UltraWide. Как и его «младший брат», представлен тремя основными разрешениями: базовым 3840х1080, средним 5120х1440 и умопомрачительным старшим — 7680х2160. Подобные мониторы тоже нередко рекламируются как игровые. Но важно понимать, что в качестве универсальных решений на это место они не претендуют. Некоторые игры до сих пор не очень хорошо «дружат» даже с форматом 21:9, а для 32:9 среди них оптимизирована довольно малая часть. К тому же преимущества от такого формата изображения есть далеко не во всех проектах с его поддержкой: уж слишком мала высота кадра по отношению к его ширине.
Максимально формат 32:9 раскрывается в поддерживаемых гоночных симуляторах, а также некоторых играх от третьего лица. Для киберспортивных дисциплин огромный угол обзора тоже может пригодиться — нередко именно этот формат выбирают профессиональные геймеры. Но простому игроку к нему придется приноровиться после обычных мониторов.
А вот для работы в многооконной среде формат 32:9 подходит куда больше. По сути, подобные модели представляют собой альтернативу двум классическим мониторам. На каждую из половин такого экрана можно вывести окно формата 16:9, а при желании можно с комфортом разместить и три полноценных окна.
Но с одним активным окном приложения все наоборот: по краям экрана практически всегда будет оставаться большое количество неиспользованного места. Особенно при работе с документами и серфинге в интернете. Также из-за огромной ширины практически все мониторы формата 32:9 являются изогнутыми. Это искажает изображение, что противопоказано для работы с программами для 2D-дизайна и 3D-моделирования — для этого лучше предпочесть два обычных монитора c соотношением 16:9.
«Забытый» родоначальник широких форматов, незаслуженно похороненный в конце 2000-х. Однако мониторы с таким соотношением сторон до сих пор выпускаются, а в ноутбуках оно и вовсе снова набирает популярность. Главным преимуществом таких моделей по сравнению с классическими 16:9 является увеличенная высота экрана. Они имеют одно из двух разрешений — 1920х1200 или 2560х1600. По сравнению со стандартными Full HD (1920x1080) и 2K (2560x1440), это позволяет видеть больше информации во многих программах, но в первую очередь — в графических редакторах. Поэтому среди моделей 16:10 много профессиональных решений, предназначенных для дизайнеров.
От большой высоты картинки заметно выигрывают офисные программы — за счет нее на экране увеличивается видимая часть документа. Также улучшается просмотр фотографий: незадействованного места по бокам меньше, а детализация — выше. Многие сайты в браузере тоже реагируют положительно: текста на экране помещается больше, а свободного места по краям становится заметно меньше. Поэтому такие мониторы нередко выбирают и программисты.
Но не обходится и без минусов. При просмотре видеороликов, картин и сериалов в формате 16:9 сверху и снизу экрана появляются черные рамки, а в играх сужается угол обзора. Впрочем, среди таких моделей сегодня нет игровых решений. Это позволяет с уверенностью сказать: мониторы формата 16:10 — не для развлечений, а для работы.
Помимо упомянутых форматов, к отдельной категории мониторов можно отнести модели с соотношением 16:9, но разрешением выше 4К. Это топовые решения с огромной диагональю экрана, которые предназначены для серьезной работы. За счет размеров и разрешения они позволяют комфортно использовать сразу несколько окон различных программ, а также обеспечивать невероятную детализацию при работе с 2D и 3D.
Подобные мониторы оснащены панелями 5К (5120х2880), 6К (6144х3456) или 8К (7680х4320). Модели от фирмы Apple имеют близкие разрешения, для которых используются маркетинговые названия Retina 5K и Retina 6K.
Сложно однозначно сказать, какой из форматов лучше для монитора. Каждый из них оптимизирован под одни задачи, а плата за это — меньший комфорт в других. В таблице ниже представлены сравнительные оценки комфорта использования основных форматов мониторов в разных сценариях работы.
Чем выше разрешение монитора в каждом из форматов — тем четче изображение и комфортнее работа с мелкими деталями. Однако не стоит забывать, что его повышение в играх ведет к снижению производительности. Поэтому тут нужно отталкиваться от мощности вашей видеокарты: нередко лучше остановиться на выборе монитора с более низким разрешением, чем играть с «тормозами».
Однозначную оценку для использования разных форматов в играх поставить трудно — здесь у каждого пользователя свои предпочтения. Но нужно иметь ввиду, что полноценная поддержка соотношения сторон 32:9 есть далеко не в каждом проекте, а панель формата 16:10 может передать картинку не так, как изначально планировали разработчики игры. Поэтому в играх властвуют форматы 16:9 и 21:9. Первый обеспечивает стопроцентную совместимость со всеми игровыми проектами за последние 15 лет, а второй — более широкий угол обзора, который поддерживается практически во всех играх за последнюю пятилетку.
Термоинтерфейс — связующее звено в передаче тепла между любым чипом и радиатором системы охлаждения. Поэтому к его выбору нужно подходить грамотно. Но часто пользователи не придают термоинтерфейсу должного значения и совершают ошибки, которые потом приводят к перегреву чипа.
Существует четыре основных типа термоинтерфейса: термопаста, термоклей, термопрокладки и жидкий металл. У каждого из них своя сфера для применения.
Термопаста лучше всего проявляет себя с небольшими горячими чипами вроде центральных и графических процессоров. Жидкий металл для этой цели подходит еще лучше, но в силу своего агрессивного состава, негативно влияющего на алюминиевые поверхности, может использоваться далеко не всегда.
Термоклей передает тепло заметно хуже, чем паста или металл. Но он незаменим там, где у радиаторов отсутствуют жесткие крепления, например, на чипсете материнской платы. Термопрокладки предназначены для чипов и мосфетов, выделяющих относительно небольшое количество тепла на единицу площади. При этом, в отличие от термоклея, прокладкам необходим хороший прижим с помощью креплений радиатора.
Каждый из термоинтерфейсов лучше всего справляется в сфере своего применения. Если мазать термопастой чипы памяти на видеокарте или мосфеты на подсистеме питания материнской платы, то ее эффективность будет куда ниже, чем у термопрокладок, просто потому, что в таких местах нет достаточного прижима. Использовать термопасту на радиаторах без жестких креплений — тоже сомнительное занятие. С пастой такие радиаторы могут упасть через некоторое время после ее нанесения. К похожим примерам можно отнести использование термоклея вместо термопасты на крупных чипах. Клей будет не только хуже отводить тепло, но еще и крепко прилепит крышку чипа к радиатору системы охлаждения. При последующей попытке снять ее это обернется большой проблемой.
Жидкий металл — главное оружие энтузиастов в стремлении достичь рекордов разгона. Однако многие пользователи, увидев большую теплопроводность, думают, что его применение снизит температуру на десяток градусов в любых условиях. На самом деле эффективность жидкого металла в равной мере зависит как от производительности используемой системы охлаждения, так и от того, насколько горячий чип планируется охлаждать. В случае с топовыми ЦП и ГП, оборудованными крупными системами водяного охлаждения, разница между металлом и пастой действительно может быть высокой. А вот для среднебюджетных чипов и недорогих воздушных кулеров металл не даст такого большого выигрыша.
Если вы все же решили выбрать жидкий металл для процессора, то помните: к нему в пару понадобится система охлаждения с медной подошвой. Алюминиевые подошвы кулеров вступают с металлом в химическую реакцию, и в итоге быстро приходят в негодность.
Теплопроводность — важная характеристика любого термоинтерфейса. Ее более высокие значения означают более эффективную передачу тепла. Но с увеличением теплопроводности растет и цена термоинтерфейса из расчета на объем (или площадь — в случае с термопрокладками).
Чем больше тепла на единицу площади выделяет используемый чип, тем больше разницы будет между эффективностью термоинтерфейсов с низкой и высокой теплопроводностью. Это правило верно и в обратном направлении: чем меньше тепла требуется снимать с единицы площади, тем меньшую роль играет эффективность термоинтерфейса.
На практике это выливается в разном влиянии теплопроводности термоинтерфейса на разные чипы. Если с горячими топовыми ЦП серий Core i9/Ryzen 9 дорогая термопаста по сравнению с дешевой может обеспечить разницу в десяток градусов, то с бюджетными Core i3/Ryzen 3 ее преимущество может составить всего пару °C.
То же касается чипов памяти на видеокартах: на топовой GDDR6X дорогие термопрокладки существенно снизят ее температуру, а с недорогой GDDR5 разницы между ними и более дешевыми разновидностями практически не будет.
Из-за этого покупка дорогого термоинтерфейса для бюджетных чипов лишена смысла — денег вы потратите немало, а разницы в температурах практически не получите. И наоборот: не стоит приобретать к дорогим процессорам и видеокартам самый дешевый термоинтерфейс, так как с ним эффективность их охлаждения будет намного хуже.
Жидкие термоинтерфейсы поставляются в разных видах упаковок. Это может быть шприц, пакет, банка или туба. В плане использования самым удобным является шприц. Он позволяет наиболее точно извлечь необходимую дозу и точечно распределить ее по всей поверхности.
На втором месте по удобству туба. Но у такой упаковки и ширина больше, и контролировать объем выдавленного термоинтерфейса труднее. Поэтому для точного нанесения придется немного приноровиться. Но есть и плюсы — туба, как и шприц, позволяет сохранять высокую герметичность упаковки, тем самым максимально предотвращая высыхание неиспользованного остатка термоинтерфейса.
Банка — вариант для более продвинутого пользователя. Наносить термоинтерфейс непосредственно с ее помощью не получится, но для этой цели обычно в комплекте идет пластиковая лопатка. Впрочем, дозировать термоинтерфейс и наносить его точечно с ее помощью тоже не очень удобно. Да и сохнет его неиспользованный остаток в банке быстрее, чем в шприце или тубе — это необходимо учитывать.
Пакет, в отличие от прочих видов, является одноразовой упаковкой. Паста в пакете подразумевает нанесение всего объема за один раз. Можно оставить небольшое количество неиспользованной пасты и в пакете, но лучше этого не делать — так она быстро высохнет и потеряет свои свойства.
Не знаете, что из этого выбрать? Тогда доверьтесь наиболее распространенной упаковке-шприцу. С ее помощью будет наиболее легко наносить и дозировать термоинтерфейс даже неопытному пользователю. С прочими вариантами придется немного приноровиться как в нанесении, так и в правильной дозировке.
Жидкие термоинтерфейсы продаются в тарах разной емкости. Их вес в различных упаковках может составлять от 0,5 до 50 г. То же касается и термопрокладок — в упаковке может быть как одна прокладка размером 2х2 см, так и несколько «ковров» размерами до 30х30 см.
Нужна ли вам замена термоинтерфейса на одном ПК или необходимо обслужить несколько? Хотите ли вы приобрести максимально точный объем/количество термоинтерфейса для единоразового обслуживания? Или наоборот взять побольше, чтобы оставить про запас? Ответьте себе на эти вопросы прежде, чем приобретать термоинтерфейс.
Для нанесения на один чип хватает от половины до одного грамма термоинтерфейса. А необходимые размеры термопрокладок рассчитываются индивидуально с учетом площади и размеров охлаждаемой поверхности. Для чипов памяти на видеокартах обычно нужны прокладки размерами примерно 12х14 мм. Количество самих чипов может быть разным — от четырех до целых 24. Поэтому для каждой модели видеокарты оба этих параметра нужно уточнять отдельно.
Важно помнить, что любой термоинтерфейс, каким бы он ни был качественным и дорогим, со временем теряет свои свойства. Особенно, когда целостность упаковки уже нарушена. Поэтому вполне можно взять чуть больше, чем нужно, с расчетом использования в ближайший год. Но запасаться любым из термоинтерфейсов на годы вперед все же не стоит.
Помимо неучтенных размеров, главная ошибка при выборе термопрокладок — неправильный подбор их толщины. В зависимости от области применения, она может быть очень разной: от 0,2 до 3 мм. Подбор «на глаз» не является фатальной ошибкой, если прокладки будут использоваться там, где радиатор прижимается с помощью мягких пружинных креплений, например, на подсистеме питания материнской платы или платах из другой бытовой техники.
А вот для чипов памяти видеокарты неправильный подбор толщины грозит серьезными последствиями, так как там их размер должен быть подогнан под определенный зазор между радиатором и платой. Чересчур толстые прокладки могут банально не влезть, либо слишком сильно давить на чипы памяти, что может привести к их неисправности. Чересчур тонкие прокладки, наоборот, не обеспечат должного прижима — с ними передача тепла от чипов памяти может быть нарушена. Поэтому особенно важно точно узнать толщину используемых термопрокладок на видеокарте прежде, чем покупать для нее новые.
Дополнительно стоит учитывать твердость термопрокладок. Если прокладка мягкая, то дозволяется слегка переборщить с ее толщиной: под воздействием радиатора она промнется и станет немного тоньше. А вот с твердыми термопрокладками такой фокус не пройдет — они практически не проминаются.
Каждый термоинтерфейс рассчитан на работу в определенном диапазоне температур. При выходе за его пределы эффективность термоинтерфейса падает, и он начинает передавать тепло намного хуже, что в итоге может перевести к перегреву чипа. Но даже самые дешевые разновидности способны работать как минимум в диапазоне от -5 °C до 150 °C. Этого с головой хватает для использования в любом домашнем компьютере или ноутбуке.
В ПК расширенный диапазон рабочих температур может пригодиться разве что энтузиастам, использующим криогенное охлаждение для разгона. Тогда действительно нужно будет пристально отнестись к нижней планке рабочей температуры, так как при охлаждении жидким азотом она запросто может приблизиться к -200 °C.
Впрочем, термоинтерфейсы находят применение не только в компьютерах. Для их использования в бытовой или промышленной технике, работающей на улице, также необходимо учитывать температурные режимы. Разновидности с минимальными -5 °C тут не подойдут, а вот с нижней планкой -40 °C или -50 °C будут весьма кстати.
Для использования термоинтерфейса в оборудовании, содержащем сильно нагревающиеся компоненты или работающем в жарких помещениях, важно обратить внимание на его максимальную рабочую температуру. Например, мощные светодиоды, часто находящие применение в уличном освещении, могут нагреваться до 150 °C. А поверхность силовых транзисторов, рассчитанных на высокую мощность, может достигать 200 °C. В этих случаях лучше выбирать разновидность с некоторым запасом по температурам, ведь при работе на их пределе термоинтерфейс может деградировать быстрее, чем обычно.
БУДТЕ ВНИМАТЕЛЬНЫ! И ваше оборудование прослужит максимально долго.