Сообщество - Лига Сисадминов

Лига Сисадминов

2 236 постов 18 765 подписчиков

Популярные теги в сообществе:

6

Снова про нанометры, или что там слышно из Китая

Для лиги лени: Китай осваивает свой процесс deep ultraviolet (DUV) 193 нм/ 7 нм

Пока настоящие патриоты* разбираются, как отличить патч-корд от патча к операционной системе, я увидел две статьи про китайскую микроэлектронику.

09.01.2025 5-7 Nm Possibly The Long-Term Technological Ceiling For China’s Semiconductor Industry – Analysis
23.06.2025 Huawei's latest notebook shows China is still generations behind in chipmaking: Kirin X90 SoC made on two-year-old 7nm N+2 process

Для тех, кто мало читал, что это за такие нанометры, напоминаю ситуацию.
Лет, примерно, 15, назад, физический прогресс в серийном производстве станков для производства кристаллов микросхем (степперов) остановился. Физика, точнее оптика дошли до предельного размера – оптика 193 нм, 38 - 22 нм на элемент. И то, еще вопрос на какой элемент, и как это все считать.
Совершенствование других элементов шло, но именно нанометры стали маркетинговым, а не техническим понятием.
Это хорошо видно в линейке AMSL -
Технология: deep ultraviolet (DUV), источник света: argon fluoride laser - 193 nm
TWINSCAN NXT:1470. wavelength - 193 nm; Resolution – 57 nm
TWINSCAN NXT:2150i. wavelength - 193 nm; Resolution – 38 nm
Технология: Extreme ultraviolet (EUV), источник света – лазер на олове, laser-driven tin (Sn) plasma, производства лазера – Cymer.
Первые поставки прототипов – 2006 год, первая серийная поставка – 2018 год, запуск – 2019 год.
TWINSCAN NXE:3400C. EUV light wavelength - 13.5 nm; Resolution - 13 nm; 7 and 5 nm nodes
TWINSCAN NXE:3600D. EUV light wavelength - 13.5 nm; Resolution - 13 nm; 5 and 3 nm Logic nodes
TWINSCAN NXE:3800E. EUV light wavelength - 13.5 nm; Resolution - 13 nm;  2 nm Logic nodes

TWINSCAN EXE: 5000. EUV light wavelength - 13.5 nm; Resolution - 8 nm; 2 nm Logic node. 185 Wafers per hour at dose: 20 mJ/cm²
TWINSCAN EXE:5200B. EUV light wavelength - 13.5 nm; Resolution - 8 nm; 175 Wafers per hour at dose: 50 mJ/cm²

Что там у Китая?

У Китая в 2023 году случился очередной прорыв, или удар от Европы в спину США – STMicroelectronics, американо-французско-итальянская фирма (Thomson Semiconducteurs of United States/France и SGS Microelettronica of Italy) собрались организовать производство MCU на 40 нм технологии.
STMicroelectronics не новички в бизнесе – их технический процесс (не станки) позволяет производить 180, 130, 90 и 65 нм чипы.
Были бы сами станки – а они есть, SMIC уже делает, в каком-то объеме, линии на DUV, и разрабатывает технологию laser-induced discharge plasma (LDP), которая, может, будет лучше чем laser-produced plasma (LPP) у ASML. Может, не будет.

Но, пока что Huawei в мае 2025 запустил предзаказ на ноутбуки на «целиком своем» процессоре Kirin X90. Производительность «вроде ничего», хотя ценник весьма не гуманный.  

Литература

31.12.2020 Как считают нанометры, как их на самом деле надо считать, и почему не все с этим согласны
05.02.2024 Roses are red, ultraviolets are blue, Samsung and ASML announce High-NA EUV equipment debut
06.02.2024 TSMC unlikely to adopt High-NA EUV for 2nm, A14 processes
04.12.2024 TSMC's N2 process has a major advantage over Intel's 18A: SRAM density
08.03.2025 China Develops Domestic EUV Tool, ASML Monopoly in Trouble
24.04.2025 TSMC's 2nm N2 process node enters production this year, A16 and N2P arriving next year
05.06.2025 TSMC cautious on High NA as ASML unveils its US$400M chipmaking machine
EUV lithography systems
Extreme ultraviolet lithography
5 things you should know about High NA EUV lithography
TWINSCAN: 20 years of lithography innovation

* их определить легко:
Ноль статей по обсуждаемой теме,
Ноль комментариев по теме до того, как они начинают мне пересказывать текст из ссылки в моей статье,
Уровень знаний по теме - отсутствующий, путают Боинг с Теслой, и сервер с системой хранения данных (в зависимости от статьи)
в 100% случаев видят русофобию, в произвольном месте

Показать полностью
13

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 4 – что там изнутри виртуализации

Для лиги лени: ничего нового, просто запускал DiskSPD. Но пришлось все переделывать.

Про тестирование и дисков и систем хранения написаны сотни статей, и ничего нового вы тут не увидите, проходите мимо.

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 1 - общая

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 2 - виртуализация

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 3 – цифры и предварительные итоги

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 4 – что там изнутри виртуализации

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 5 – другие варианты виртуализации

Четвертая часть должна была быть про ребилд –

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 4 - ребилд и прочие ситуации «ой пропали диски».

Но вышло иначе.

В предыдущих сериях:

При создание дискового пула у командлета New-StoragePool есть параметры:
LogicalSectorSizeDefault - 512 и 4096
MediaTypeDefault - HDD, SSD, SCM
WriteCacheSizeDefault

И, кроме того, Windows сам разбирается, что делать с дисковым кешем у SSD. Просто процитирую еще раз: some enterprise drives that should work, is not recognized as devices with power-loss protection, and that means Storage Spaces will only send synchronous writes to the devices, and not use the internal buffer in the device, and that will degrade performance a lot on most drives.

Поверх дискового тома находится NTFS или ReFS, со своими представлениями о размере кластера.

При этом, если не посчитать размер колонок так, чтобы попадать на запись полным страйпом, то диски в режиме parity жутко тормозят на запись, такое впечатление что не заявленные x4, а x4x4 = x16.

Тестирование с SQLIOSim и, особенно,с HammerDB, будет в следующей части.

Виртуализация:

Командлет New-VHD предлагает параметры:
LogicalSectorSizeBytes
PhysicalSectorSizeBytes
С вариантами 512 и 4096 байт для обоих параметров.
Придется лезть в  FILE_FS_SECTOR_SIZE_INFORMATION structure (ntddk.h) для попытки понимания.
Что там происходит:
LogicalBytesPerSector: Logical bytes per sector reported by physical storage. This is the same value as the block size for used for Logical Block Addressing (LBA).
PhysicalBytesPerSectorForAtomicity: Actual bytes per sector reported by physical storage used for an atomic write.
PhysicalBytesPerSectorForPerformance: Bytes per sector reported by physical storage for best performance.

atomic write, значит. То есть придется лезть в:
3.68 WRITE ATOMIC (16) command
3.69 WRITE ATOMIC (32) command
из SCSI Commands Reference Manual

Я под такое не очень подписывался.

Поможет мне с этим таблица - Microsoft support policy for 4K sector hard drives in Windows, и статья Advanced Format, цитата:

SSDs do not expose their actual NAND flash memory page size, which typically ranges from 4 KiB to 16 KiB, instead their reported physical sector size is the same as their logical sector size. For NVMe SSDs, if it is available, the Atomic Write Unit Power Fail (AWUPF) parameter value is used.

То есть, когда-то давно, во времена Windows Vista with update KB 2553708 и рядом с ними (Windows 7 SP1 and Windows Server 2008 R2 SP1), по ряду причин, описанных в статье Advanced format (4K) disk compatibility update, индустрия перешла на 512\4096, то есть 4K disks with emulation (512e). С тех пор для тех, кто не ходит в CLI, начались неведомые проблемы, вида «тормозит, и мы не знаем почему, наверное главный русофоб по совместительству главный разработчик, гадит в ядро Linux».

Или же будут крики «вы все врете, не может проприетарное ядро Windows настолько хорошо работать. НЕ ВЕРИМ, но как проверить, не знаем».

На фоне того, что недавно Виталий намерял какие-то магические цифры при отключении кеша дисков, может быть что угодно.

Однако, к цифрам.

С цифрами я весьма ошибся. Потому что я ленивый. Оказалось (это было очевидно), что 1 поток DiskSPD == 1 vCPU. То есть, если у вас 24 vCPU, чтобы как бы попытаться сидеть в пределах одного сокета, то 45-60 потоков запроса запускать бессмысленно. Работать будет, разброс данных по потокам будет в 10 раз – от 3000 до 33000 IOPS на поток. Поэтому IOPS «итого» приводить нет смысла.

Извините, но надо весь тест переделывать, и сводить, в том числе, среднее IOPS per threads и отклонения по IOPS per threads.

Однако, даже в таком сорвавшемся тесте было видно, что:

Первое
При создании vhdx диска из GUI по умолчанию он создается как LogicalSectorSizeBytes = 512, PhysicalSectorSizeBytes = 4096. Это нормально «для совместимости», но дает просадку по производительности в полтора раза (это при усредненном учете вышеуказанных ошибок).

Второе
Не оптимизированное размещение колонок на parity томе дает все те же кошмарнейшие просадки по производительности.

В остальном тестовая операция полностью провалилась.

Переделывать пришлось все вообще – начиная от создания дисковой группы \ пула.

Но это уже другая история.

Литература

Read-Modify-Write: Effect when hosting VHDs on 512e disks

Показать полностью
50

Ответ на пост «Пояснительная бригада: команда sudo»1

Но есть команда sudo — substitute user and do. Эта команда на время позволяет представиться администратором системы

Школьников за завтраки набрали писать статьи для рекламного хабра, а маркетологи тащат их на пикабу ?

если вы сделаете, скажем,
sudo -u postgres

то у вас что, будут права рута ? Разумеется нет.

Открывайте иногда букварь:

sudo (/suːduː/[4]) is a shell command on Unix-like operating systems that enables a user to run a program with the security privileges of another user

https://en.wikipedia.org/wiki/Sudo

13

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 3 – цифры и предварительные итоги

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 3 – цифры и предварительные итоги

Для лиги лени: ничего нового, просто запускал DiskSPD. Но вышла фигня.

Про тестирование и дисков и систем хранения написаны сотни статей, и ничего нового вы тут не увидите, проходите мимо.

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 1 - общая

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 2 - виртуализация

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 3 – цифры и предварительные итоги

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 4 - ребилд и прочие ситуации «ой пропали диски».

Тестирование локальных дисков и систем хранения данных: подводные камни. Часть 5 – другие варианты виртуализации

Диски

При покупке дисков «под тесты» у нас были разные проблемы

1. Максимальное число дисков.
На сервере, выбранном под тесты, (какая-то достаточно старая Supermicro 2U, материнскую плату попозже посмотрю) можно было поставить всего 6 NVME дисков. Это лучше, чем у меня было в 2021 году, тогда на сервере было всего по два слота на панели под NVME, остальные SAS. Или же было всего 4, то есть по 2 на сокет? Не помню.

На новых серверах, скорее всего это будут Supermicro Hyper SuperServer SYS-221H-TN24R, заявлено 24 front hot-swap 2.5" NVMe*/SAS*/SATA* drive bays.  Надо будет еще раз посмотреть и посчитать, стоит ли оно того.

Ирония ситуации в том, что, может быть, нам больше 150-200k IOPS блоком 4k и не надо, а с этим справится и младшая Huawei Dorado 5000 v6, даже не v7. Которых (v7) то даже нам пока не поставляют. Пока писалась статья, может уже и стали поставлять, давно не спрашивал.

2. Огромное число вариантов тестов, комбинаторный взрыв.

Настройки BIOS, варианты прошивок, настройки OS, настройки тестов. Все вместе, порой, вызывает больше вопросов, чем дает ответов.

3. RAID и новый вариант проблемы Read–modify–write

Когда-то давно все диски были с разметкой 512 (иногда 520), и проблемы с тем, что блок меньшего размера пишется в страйп большего размера, были не так значимы. Была проблема с выравнивание разделов, но ее решили (starting offset  - Disk performance may be slower than expected when you use multiple disks)

Зато теперь есть проблема с Write amplification.
Теперь же оптимизация 512-4096-512 плюс файловая система может дать, в кривых руках (например, моих), Raid write penalty не 4, как положено по написанному в середене нулевых калькулятору, а x4x4, то есть x16.

4. Прочие не заданные вопросы.
Почему не Linstor? Потому что Linstor, прежде всего, нужно долго тестировать в разных сценариях поверх дисков. Это на всяких SMM помойках в зоне ру пишут «мы запустили русский HGUI к Linstor, аналоговнет» - но нам работать надо, причем в сценариях, когда отказать может не один диск, и даже не один сервер, а стойка целиком. На метрокластер фирма пока не заработала, хотя уже приценивается. Отсюда обязательные требования по MPIO, причем не с переключением за 2 минуты, и отработка сценариев отказов. Что там у Linstor с MPIO?
FC в топку, Cisco Nesux, особенно с Fabric Extenders  (FEX) – на помойку, глючное под нагрузкой. Juniper у меня и не было.
Arista топ.
Но, посмотрим. Соседний отдел уже полгода мотает от «хотим Linstor» до «SupremeRAID купите позязя». Потом они пойдут смотреть на weka, vastdata (Cosmos), vast.ai.

Выбор ОС.

Разные ОС по разному работают с дисками. Поскольку Broadcom ESXi стал не просто дорого, а очень дорого, то выбор остался между Microsoft Hyper-V (но нужно сразу считать стоимость DC лицензии, плюс лицензии SCOM, SCVMM) и Proxmox. Итогом, понятно, будет гибридная инфраструктура – часть в облаке, часть на Proxmox, часть на Windows. У нас тут без предрассудков.
Почему не чистый, ванильный KVM? Не знаю, как-то не рассматривали этот вариант.

Закончим с теорией, перейдем к практике.

Диски еще раз.

Использовались: Micron 7450 SSD Gen4 pro по 3840 Gb. Спецификация: Micron 7450 SSD Series Technical Product Specification

Заявлено:
- Random 4KB READ: Up to 1,000,000 IOPS
- Random 4KB WRITE: Up to 400,000 IOPS

Точнее данные описаны в таблице 1: Table 1: Drive Performance – PRO

И начинаются фокусы.
Во первых, для разных емкостей и моделей заявлена разная производительность.
Во вторых, для разных тестов использована разная глубина очереди:
• Sequential workloads measured using FIO with a queue depth of 32
• Random READ workloads measured using FIO with a queue depth of 256
• Random WRITE workloads measured using FIO with a queue depth of 128

или:
Latency values measured under the following configuration:
• Random workloads using FIO with 4KB transfers and a queue depth of 1

Особо надо обратить внимание на питание и охлаждение.
3. Power limiting is configured through Set/Get Features Power Management.
4. Power consumption measurements are for reference only; actual workload power consumption will vary

Указано, что в среднем диски выдают до 15 ватт тепла, но в пике указано потребление до 2 ампер по линии 12 вольт, то есть 24 ватта на диск. На 6 дисков это плюс 150 ватт. Проблема не в блоках питания, а в том, что диски стоят спереди, и процессоры «за ними» обдуваются весьма горячим воздухом. В теории у нас на входе +20, а на процессоры приходит воздух уже +30, а то и +35, и на выходе получаем и +70..+80 на самих процессорах, и обдув памяти с ее нагревом. Поэтому не забывайте сразу настроить мониторинг CPU \ RAM temp, через IPMI – iBMC – iDRAC – iLO, или что там у вас.
И, само собой, не забывайте считать пределы отведения по теплу, иначе получите, рано или поздно, что ваше охлаждение из N+1 превратилось в N+0.

Еще немного теории, теперь про DiskSPD.

У DiskSPD есть несколько критичных параметров. Это:
Измененная методика работы в последней версии, цитата:
Previously Diskspd would issue the requested number of I/Os (T0), then receive and record one I/O at a time (T1)

С рекомендацией:
Since these changes can be so dramatic, you should re-baseline your storage performance using the latest version of Diskspd.
To keep pace with the advances in disk speeds and the improvements in Windows Server 2025, we’ve made investments in our storage performance benchmark tool to get you an accurate measure of latency.

Кстати, я там плакал, что нет экспорта в XML? Он есть:
-R[text|xml] Display test results in either text or XML format (default: text).

Никогда не ходил в эту секцию библиотеки, а, видимо, придется: Event Tracing for Windows (ETW) parameters

Всплыли некоторые неочевидные (если не читать) подробности, например, конфликтующие параметры:
-F<count> Total number of threads. Conflicts with -t, the option to set the number of threads per file.
-t<count> Number of threads per target. Conflicts with -F, which specifies the total number of threads.
Поэтому, если вы используете несколько целевых файлов, и ключ –t – как в примере:
diskspd [options] target1 [ target2 [ target3 ...]

То у вас число потоков (тредов, нитей) будет расти с ростом числа файлов. Что надо было бы мне учесть перед тестами, но я, конечно, не учел.

Еще немного теории, уже почти все.

В школе всех учили и учат, что есть один путь решения и одно правильное решение. Поезда встречаются на определенном полустанке, машина из А в Б приедет за 5 часов 55 минут, итд.
В техническом институте учат, что все ваши измерения – фигня полная. Не бывает ровно 28 сантиметров, ровно 22 секунды. Бывает 28 сантиметров плюс минус погрешность инструмента, плюс минус погрешность методики, плюс минус систематическая и так далее, поэтому «примерно 24-29 см» приемлемый результат. Хотите большей точности  – работайте с ошибками и инструментами.
Курса со второго (иногда с первого) учат, что ошибка – это нормально. Лучше, конечно, не делать грубых ошибок, но умеренно ошибаться при опытах и постановке опыта «тоже сойдет». Грубых ошибок делать не надо, ТБ нарушать не надо. Там же учат иногда подгонять ответ под требуемый результат, и оценивать результат с точностью до порядка.
Так что полученные ниже результаты – повод для обсуждения, где именно можно улучшить методику, какие параметры покрутить. Или же все переписать и переделать.

Тесты и результаты.

Windows Server 2019 и 2022: сопоставимые результаты.
Хотя, еще как посмотреть, насколько сопоставимые, и в каких сценариях. Например ResiliencySettingName: Parity в Server 2019 работало с багами, до какого-то очередного фикса.
Тесты существенно округлены в основном в меньшую сторону, то есть 142к > округлено вверх до 150к, 139к округлено куда получится.
Number of threads per target: 10
Number of outstanding I/O requests per-target per-thread: 16
target:1
Кеширование: выключено
Тип пула (New-StoragePool): LogicalSectorSizeDefault: по умолчанию.
Типы дисков: New-Volume ProvisioningType: Thin, Fixed. Результаты сопоставимы для обоих типов дисков (что очень странно для поклонников старой школы), поэтому приводятся без разбивки.
Форматирование: NTFS 4k
ResiliencySettingName: Mirror
Чтение блоком 4к: 600к IOPS
Запись блоком 4к: 250к IOPS

Чтение блоком 64к: 450к IOPS
Запись блоком 64к: 100к IOPS

Number of threads per target: 15
Number of outstanding I/O requests per-target per-thread: 16
Targets:4
ResiliencySettingName: Mirror

Чтение блоком 4к: 2500к IOPS
Запись блоком 4к: 900к IOPS

Чтение блоком 64к: 650к IOPS
Запись блоком 64к: 150к IOPS

Следующий вариант тестов:
Number of threads per target: 15
Number of outstanding I/O requests per-target per-thread: 16
Targets:4
ResiliencySettingName: Parity. Важно: я с этой настройкой не экспериментировал, хотя в 1 и 2 частях написано про важность грамотной настройки именно в этой части. Поэтому производительность в Parity на запись, при настройках по умолчанию, будет отвратительной.

Чтение блоком 4к: 2800к IOPS (внезапно для меня, чтение для Parity работает отлично)
Запись блоком 4к: 45к IOPS. Да, просадка с 900k до 45k. Не в 4 раза, и даже не в 10. Выглядит, как результат все той же проблемы – read-modify-write, когда из страйпа читается один блок, изменяется и перезаписывается.

Чтение блоком 64к: 650к IOPS
Запись блоком 64к: 20к IOPS
Огромная просадка по записи. Просто чудовищная.

При этом, я смотрю на среднее отклонение, и вижу в нем какие-то всплески на 10-20% . Что это было? Меня на повторное проведение лабораторных работ в институте отправляли и за меньшие отклонения и нарушения.
Видимо, придется все переделывать.

Windows Server 2025.
В 2025 сервере обещали улучшить, углубить, итд. Посмотрим
Number of threads per target: 15
Number of outstanding I/O requests per-target per-thread: 16
Targets:4
ResiliencySettingName: Mirror

Чтение блоком 4к: было 2500к IOPS, стало: почти 3000к IOPS
Запись блоком 4к: было 900к IOPS, стало почти 1000 к IOPS. Опять наблюдается разброс в скорости между тонкими и фиксированными дисками, что говорит о том, что надо проводить не 2 теста по 5 минут, а 6 тестов по 10 минут и смотреть среднее, да и на задержки поглядывать.

Чтение блоком 64к: 650к IOPS. Без существенных изменений.
Запись блоком 64к: 150к IOPS. Без существенных изменений.

Следующий вариант тестов:Number of threads per target: 15
Number of outstanding I/O requests per-target per-thread: 16
Targets:4
ResiliencySettingName: Parity. Важно: я с этой настройкой не экспериментировал, хотя в 1 и 2 частях написано про важность грамотной настройки именно в этой части. Поэтому производительность в Parity на запись, при настройках по умолчанию, будет отвратительной.

Чтение блоком 4к: было 2800к IOPS, стало почти 3000к IOPS.
Запись блоком 4к: было 45к IOPS, стало 80к IOPS.

Чтение блоком 64к: было 650к IOPS. Без существенных изменений.
Запись блоком 64к: было 20к IOPS. Стало 30 к IOPS.

Заключение

Тестирование только DiskSPD или FIO показывает некие повторяемые цифры, которые напрямую не конвертируются в ответ «будет ли работать SQL быстрее, и, если да, то насколько».
Подойти ближе к ответу позволяют:
SQLIOSim
SQL Query Stress Tool
HammerDB

И прочие инструменты.
Stay tuned

Список литературы

Windows Server 2025 Storage Performance with Diskspd
Use DISKSPD to test workload storage performance
Getting Started with Diskspd
microsoft/ diskspd Command line and parameters
microsoft/ diskspd Sample command lines
RAID Write Penalty and IOPS Calculation

Understanding RAID Write Penalties: RAID 0, 1, 5, and 6 Explained

SQL Query Stress Tool
ErikEJ/ SqlQueryStress
Microsoft SQL Server Performance monitoring and tuning tools
Microsoft SQL Server Troubleshoot high-CPU-usage issues in SQL Server
Microsoft SQL Server Performance and Activity Monitoring
Microsoft SQL Server Troubleshoot slow-running queries in SQL Server 
Open Activity Monitor in SQL Server Management Studio (SSMS)
Use the SQLIOSim utility to simulate SQL Server activity on a disk subsystem
HammerDB is the most trusted Free and open source database benchmarking application to the global database industry

PS.
Особенно меня радует отсутствие экспертов (ТМ) в комментариях.
Уровень комментаторов и так упал ниже уровня Хабра, хотя, казалось бы, что может быть более днищевым, чем редакция Хабра и активно ими создаваемые аккаунты с активной гражданской позицией из одного комментария.
Комментарии про «СХД OceanStore 2288» умиляют глубиной безграмотности.
Ирония в том, что технике, лишенной духа машины, не скажешь «ну, надо».
3rd: Sentience is the ability to learn the Value of Knowledge.
4th: Intellect is the Understanding of Knowledge.

Показать полностью
4

Странного хочу (как связать браузер с консолью ?)

Доброго времени суток, коллеги.
Создалась тут у меня необычная ситуация.
Есть у меня один хороший знакомый, который большую часть времени проводит на работе.
Условия достаточно жёсткие - есть внутренняя сеть, почти нет выхода в интернет.
"Почти" означает вот что :
У пользовательских компов выхода нет совсем.
Но у них есть доступ к внутреннему порталу.
И на этот внутренний портал есть доступ из интернета.

У меня есть аккаунт на этот их внутренний портал и вот в соседнем окне мы сейчас болтаем в веб-чате.
И он меня просто достал "посмотри в интернете то, посмотри в интернете это"
И подумалось мне - а можно ли, грубо говоря , как-то слинковать браузер с телнетом ?
Ну грубо говоря - то что он пишет в чате , из браузера транслируется в телнет-клиента, телнет клиент логинится на мою линуксовую машину, у которой уже есть доступ в интернет.
Там уже lynx какой нибудь, Irssi , BitchX , ну чего там есть еще консольного , и пусть развлекается.

И, да, я понимаю, что времена сейчас уже другие - из консоли много в интернете не получишь, но сама идея уже захватила.
Может какой то плагин для firefox ?
Есть идеи ?

Отличная работа, все прочитано!