49802
Copyright: @SEAdm1n Вакансии: @infosec_work Информационная безопасность. Литература для ИТ специалистов. Пентест, DevOps, Администрирование. Приобрести рекламное размещение: https://telega.in/c/it_secur РКН: https://vk.cc/cN3VCI
• Хороших выходных и немного красоты вам в ленту ❤
#Разное
• В начале 90-х, когда о USB не шло и речи, был выпущен жесткий диск Backpack (фото 1) от компании Microsolutions. Его особенностью был тип подключения - через порт для принтера. Первая модель была объемом аж 80 МВ.
• Драйверу этого устройства требовалось добавить всего одну строку в CONFIG.SYS, и потреблял он менее 5 кб. памяти. Backpack, в момент выпуска, работали так же быстро как и внутренние IDE-накопители на 80 или 512 МВ. Скорость передачи была около 1МБ в секунду. Backpack были самым настоящим жестким диском с типичным показателем производительности - время поиска, которое составляло 12 мс. Была даже возможность создать цепочку из таких дисков, подсоединяя один к другому.
➡ https://www.redhill.net.au/d/135.php
• А вот еще одно интересное устройство - Iomega Zip Drive (фото 2). Это жесткий диск со сьемным накопителем, который был очень популярным на протяжении нескольких лет, начиная с 1994 года. За пару сотен баксов вы могли получить внешнее устройство параллельных портов с картриждами по 100 МБ, похожими на дискеты-переростки. Их можно было вставлять в устройство сколько влезет. Производительность была весьма приемлемой, хоть и стоимость одного мегабайта была крайне высока. Скорость передачи данных - 1МБ в секунду. Не плохо. Но вот время поиска было не столь радостным - аж 29 мс.
• В целом, Zip Drive были слишком малого объема, слишком медленными и дорогими, чтобы стать массовым продуктом. Однако в свое время они пользовались большой популярностью, поскольку были чем-то необычным и новым на рынке.
#Разное
• Хорошая книга, хоть и на английском, которая посвящена анализу пакетов в Wireshark - самом популярном в мире сетевом анализаторе.
• Начиная с основ организации сетей и описания протоколов, в этой книге поясняются методики выявления и устранения различных проблем, возникающих в сетях, включая потерю связи, анализ веб-содержимого и пакетов.
➡️ Скачать можно с GitHub.
• В качестве дополнения:
➡Лабораторные работы для получения практического опыта работы с Wireshark;
➡Бесплатный курс: Компьютерные сети 2025;
➡Руководство: Анализ трафика сети посредством Wireshark;
➡Полный список фильтров Wireshark;
➡Статья: Wireshark. Лайфхаки на каждый день;
➡Статья: Практические приёмы работы в Wireshark;
➡Mindmap: Wireshark;
➡Не забывайте по наш репозиторий, в котором собрана подборка материала для изучения сетей (от курсов и книг, до шпаргалок и сообществ): https://github.com/SE-adm/Awesome-network
#Wireshark #Сети
🖥 GeoCities.
• В 90-е годы интернет был диковинкой: медленный, дорогой и доступный далеко не всем! А создать собственный сайт было сродни подвигу - требовались знания HTML, наличие сервера и много терпения. Но в 1994 году появилась платформа, которая перевернула представление об интернете. GeoCities - это не просто бесплатный хостинг, это цифровой город, где каждый мог получить свое маленькое пространство...
• Компания предоставляла всем желающим небольшой объем бесплатного места на жестком диске (поначалу около 2 мегабайт) и индивидуальный идентификатор. Дополнительная ежемесячная плата могла взиматься, если пользователю хотелось получить больше места для хранения своих данных.
• Эта технология стала ранним прообразом эпохи Web 2.0, когда контент создавался самими пользователями. И хотя сайты выглядели простовато - с кислотными цветами, гифками и громоздкими кнопками, - они были искренними и живыми. Это не просто веб-страницы, а целые вселенные, созданные руками энтузиастов.
• Каждый пользователь персонализировал свой сайт так, как считал нужным. Странички GeoCities зачастую украшались анимированными баннерами, рекламирующими личные проекты владельцев, рекламой любимого программного обеспечения (например, некогда популярного веб-браузера Netscape), анимированными GIF-файлами с праздничной тематикой, кадрами из разномастных телепередач – и это далеко не всё. Свобода творчества была фактически ограничена только фантазией автора и объемом пространства, занимаемого сайтом на жестком диске.
• К концу 1990-х годов популярность GeoCities настолько возросла, что он стал третьим по посещаемости сайтом в интернете. К началу 2000-х на GeoCities размещались страницы практически на все мыслимые и немыслимые темы. Там можно было найти сайты о местных пожарных командах или военных самолетах, галереи чьих-то фотографий из отпуска, рисунки учеников начальной школы, всевозможные родословные, рассказы о похищениях инопланетянами, магазинчики гончарных изделий и т. д. Список можно продолжать до бесконечности.
• В 1999 году GeoCities за $3,6 млрд. приобрела Yahoo!.. На тот момент это казалось отличной идеей: платформа уже была второй по популярности после AOL и привлекала миллионы пользователей. Но что-то пошло не так.
• Yahoo! начала нагружать сайты рекламой, и вместо уютных "цифровых пространств" появлялись баннеры и всплывающие окна. Пользователи были недовольны, потому что реклама рушила атмосферу сообщества. К тому же, появлялись более современные решения, и популярность GeoCities стала снижаться.
• В 2009 году Yahoo! отключила GeoCities. Миллионы страниц, созданных с любовью и фантазией, исчезли без следа. Город, который когда-то объединял интернет-пионеров, канул в Лету, оставив за собой только архивы и ностальгические воспоминания...
• Кстати, при поиске слова "GeoCities" в Google (тык) поисковая выдача меняет шрифт на Comic Sans MS, имитирующей стиль любительских сайтов 90-х годов. Такая вот пасхалка...
#Разное
• Журнал "Навигатор игрового мира" - Выпуск №08 - 2000 год.#Юмор
👨💻 Краткий справочник по «всем-всем» командам Linux.
• Вероятно, что вы уже видели этот "краткий" справочник на хабре. Он был опубликован еще в 2022 году, но постоянно дополнялся автором и актуализировался.
• Так вот, месяц назад автор этого справочника добавил в коллекцию еще 70 новых команд и сделал их краткое описание. Это отличный повод напомнить вам, что тут вы можете найти команды на все случаи жизни - сейчас их более 1330!
➡️ https://habr.com/ru/post/683638
#Linux
• Буквально через 2 года после SYN Flood пользователи одного из старейших мировых провайдеров, Нью-Йоркского PANIX, обнаружили, что их mail-сервера не работают. Спамеры разослали через них тысячи писем, использовав SYN Flood с нескольких взломанных машин. Дежурный администратор PANIX отреагировал примерно как в меме: "Очень страшно, мы не знаем, что это такое".
• Однако, по итогам полутора суток даунтайма они поняли, что они имеют дело с DDoS с использованием SYN пакетов, генерируемых со взломанных тачек.
• Реакция масс-медиа на эту историю была сдержанной. Написали только в профильных колонках технологических изданий. Однако это был чуть ли не первый случай, когда об этом вообще кто-то написал за пределами тематической mail-рассылки.
• Реакция профессионального сообщества была немножко интересней. Спустя два года исследователи проводили research и выяснили, что для среднестатистического сервера достаточно 20 пакетов в секунду, чтобы держать очередь полуоткрытых соединений (SYN queue) полностью забитой. После чего сервер не сможет принять TCP-коннект ни от кого больше.
• 20 пакетов в секунду - не очень много даже по меркам того периода. Таким образом, мы не знаем, сколько трафика было сгенерировано в первой исторической DDoS-атаке на PANIX, но, очевидно, много пакетов не потребовалось.
• Экспертное сообщество (Центр реагирования CERT) внимательно рассмотрело причины и симптомы возникновения проблемы и выпустило очень общие экспертные рекомендации: "за всё хорошее, против всего плохого".
«Провайдеры: фильтруйте трафик с поддельных IP-адресов, идущий через ваши сети»
CERT Advisory CA-1996-21 TCP SYN Flooding and IP Spoofing Attacks
.com (Амазон, Ebay, Yahoo и т.д.) существовавшие на тот момент.
• Нашел очень крутую книгу, которая распространяется совершенно бесплатно. Это, своего рода, практический курс по Linux (на основе Debian) для тех, кто только начинает путь в IT. Если вы работали только в Windows, никогда не открывали командную строку и не настраивали серверы - вы именно тот, для которого был написан данный материал.
• Вы пройдете путь от первого подключения к серверу по SSH до развёртывания веб-сайта в контейнерах Docker с автоматическим деплоем. Через все главы проходит сквозной проект - настоящий сайт на nginx + PHP-FPM + WordPress, который вы соберёте своими руками: сначала вручную, потом в контейнерах, потом с автоматизацией через CI/CD.
• Курс охватывает три части:
• Часть I.
➡Первое знакомство: что такое Linux, подключение по SSH;
➡Файловая система: навигация, работа с файлами и каталогами;
➡Права доступа и владение файлами;
➡Текстовые редакторы: nano, основы vim;
➡Coreutils и конвейеры: обработка текста;
➡Основы bash-скриптов.
• Часть II.
➡Управление пакетами (apt), репозитории;
➡Пользователи, группы, sudo;
➡Процессы и сервисы (systemd);
➡Сеть: ip, ss, firewall, основы DNS;
➡Установка и настройка nginx + PHP-FPM + WordPress;
➡Логирование и мониторинг.
• Часть III.
➡Git: основы контроля версий;
➡Docker: контейнеризация проекта;
➡Docker Compose: оркестрация в контейнерах;
➡Базовый CI/CD (GitLab CI).
• Учитывайте, что каждая глава опирается на предыдущие, поэтому читайте последовательно.
➡️ Читать онлайн.
➡️ Скачать в формате PDF.
#Linux
📚 Effective Shell - неплохой учебник по работе в командной строке Linux. От базовых операций, до мультиплексера, git'а, и vim'а.
➡ Доступно бесплатно на сайте автора: https://effective-shell.com/introduction/
#Книга #Linux
Почему 80% атак на компании остаются незамеченными в первые часы?
Потому что наличие средств защиты ≠ наличие специалистов, которые умеют видеть и интерпретировать происходящее в инфраструктуре.
• Интересный факт: 3 марта исполнилось 26 лет с момента отмены разрешений на ношение сотового телефона. Олды вспомнят, что до 2000-го года все граждане РФ были обязаны при покупке мобильного телефона получить на него разрешение от Госсвязьнадзора. При отсутствии разрешения трубку конфисковывали, а суд потом налагал штраф от 1,5 до 6 тыс. руб.
• На первом фото – временное разрешение, которое автоматически выдавал сотовый оператор при заключении контракта. В течение трех месяцев оно должно было меняться на постоянное – небольшую заламинированную карточку (фото 2).
• Если вам интересно, в связи с чем вводили такие разрешения, то тут мнения разделяются. Одни специалисты связывали такой подход к регистрации мобильных телефонов со стандартами, которые использовали первые сотовые операторы: в ходу тогда были скандинавский стандарт NMT-450, американский AMPS и его цифровой аналог D-AMPS. Стандарты жестко привязывали номер абонента к телефонному аппарату, и чтобы заменить номер на другой, нужно было нести телефон в компанию, и там его перепрограммировали.
• Но есть и другое мнение: наследственность, доставшаяся от СССР, в которой власти бдительно следили за чистотой эфира, глушили вражеские радиостанции, а радиопередатчики и коротковолновые приемники считались шпионским оборудованием. Правом занимать эфир обладали только КГБ, МВД, армия и Министерство связи. Конечно, существовали клубы радиолюбителей, но все любители эфира тоже были посчитаны и у каждого должно было быть свое разрешение на аппаратуру.
• Кстати, в конце девяностых платили Госсвязьнадзору за оформление разрешений уже операторы, а не абоненты. Стоило это $4, поэтому все операторы всячески торопили наступление вышеупомянутого события.
#Разное
👨💻 cURL 28 лет. История создания и его автора.
• Сегодня исполняется 28 лет с момента создания cURL - это инструмент командной строки на основе библиотеки libcurl для передачи данных с сервера и на сервер при помощи различных протоколов, в том числе HTTP, HTTPS, FTP, FTPS, IMAP, IMAPS, POP3, POP3S, SMTP и SMTPS. Он очень популярен в сфере автоматизации и скриптов благодаря широкому диапазону функций и поддерживаемых протоколов.
• Создателем cURL является Даниэль Стенберг, который создал данный инструмент в 1998 году и поддерживает его до сих пор. По сути, Стенберг — человек одной программы. Очень мало что известно о других его проектах или юношеских разработках.
• Как и многие сверстники, Даниэль познакомился с компьютерами в средней школе, когда в середине 80-х другу купили Commodore 64. Ребята покупали много компьютерных журналов, по которым учились программировать. В те времена код программ (например, игр) печатали прямо в журнале. Несколько страниц кода, который нужно было вручную и без ошибок ввести в компьютер, а потом запустить.
• В 1985 году парень разжился собственным компьютером и начал программировать как маньяк, изучил ассемблер и присоединился к демосцене. В общем, это пример ещё одного талантливого программиста-самоучки, который полностью погрузился в свою страсть, не имея формального образования. После службы в шведской армии в 1991 году молодой человек решил не поступать в колледж, а нашёл первую работу, связанную с обслуживанием компьютерной техники в IBM (конфигурация мейнфреймов перед отправкой заказчикам). Там он познакомился и хорошо изучил Unix и экосистему опенсорсных инструментов. А в свободное время начал программировать… что и делает до сих пор.
• Даниэль готовил к поставке для клиентов мейнфреймы и магнитные ленты. Но стало понятно, что весь софт с магнитных лент можно скопировать, скомпилировать, посмотреть, как он работает, и изменить на своё усмотрение. Это была концепция "свободного кода" (термин "опенсорс" появился позже).
• После 1993 года все официальные работы Даниэля были связаны непосредственно с программированием, а знания консольных утилит пригодились в дальнейшем. Это были как раз годы бурного распространения интернета среди энтузиастов, годы первых BBS и т. д. Тогда же формировалось сообщество энтузиастов опенсорса.
• В 1996 году Даниэль Стенберг нашёл бразильского коллегу Рафаэля Сагула, который написал консольную утилиту HttpGet (простенькая программка в 100 строчек кода). Даниэль взял её как вспомогательный инструмент к IRC-боту для автоматического расчёта курсов конвертации валют (шведские кроны в доллары). Курсы нужно было скачивать из интернета. Дальнейшим развитием программы он уже занимался самостоятельно. С каждой версией утилита расширяла функциональность: сначала появилась поддержка HTTP-прокси, потом протокола Gopher и FTP и так далее. В 1997 году она переименовалась в urlget, а 20 марта 1998 года впервые вышла версия под названием curl, сокращение от "client URL". Размер программы к тому времени вырос аж до 2200 строк кода. По итогу curl превратился в мощный универсальный инструмент, позволяющий взаимодействовать по множеству различных протоколов с синтаксисом URL.
• Сам Стенберг считает это не своей особой заслугой, а скорее выигрышем в лотерею. Но его дальнейшая четвертьвековая приверженность проекту и общему делу опенсорса всё-таки заслуживает уважения. Если посмотреть статистику, за всю историю Даниэлю принадлежит примерно 56% из общего числа коммитов, так что его роль по-прежнему важна, тем более в последние несколько лет эта роль стала его основной оплачиваемой работой. Есть ещё несколько официальных спонсоров.
• Конечно, всё это делается и в рамках стандартной опенсорсной разработки, но если компания желает заплатить деньги мейнтейнерам, то это только приветствуется. Сейчас сайт curl.se обслуживает 17 ТБ трафика в месяц, выполняя более 470 млн запросов, а официальный образ для Docker был запрошен более четырёх миллиардов раз.
#Разное
Бесплатный PAM, который уже используют в крупных компаниях!
Jumpserver PAM -- для компаний любых масштабов.
Бесплатная версия с открытым исходным кодом закрывает большинство задач для наведения порядка в сети и безопасного доступа специалистов и подоядчиков к серверам и сервисам.
Для расширенных сценариев есть платная редакция с дополнительными возможностями и поддержкой на русском языке.
JumpServer PAM это:
• Контроль доступа к RDP, SSH, веб-интерфейсам и СУБД
• Фильтрация SQL-запросов и SSH-команд
• Подробный журнал действий
• Встроенный 2FA
• Масштабирование и надёжная кластеризация
• Установка одной командой
Познакомьтесь с JumpServer PAM на вебинаре 24 марта в 12:00 по Москве
Регистрируйтесь по ссылке: Регистрация на вебинар
И присоединяйтесь к сообществу пользователей (ссылка на телеграм-канал):
• Инструкции и документация
• Кейсы внедрения
• Лучшие практики и рецепты
• Чат с нашими экспертами
#реклама
О рекламодателе
• Вы ведь знаете, что существует множество разных ОС с открытым исходным кодом, и если вы пользуетесь одной из них, то почти наверняка она будет на базе ядра Linux и набора программ GNU. Многие думают, что дистрибутив GNU/Linux и был первой open source операционной системой. Но это не так. Его опередил проект Berkeley Software Distribution, или BSD. И вот тут возникает вопрос: почему BSD сейчас находится на задворках экосистемы open source, тогда как GNU/Linux играет одну из центральных ролей?
• История BSD тесно связана с Unix, ОС, которая была выпущена AT&T Bell Labs в 1969 году. В конце 70-х группа специалистов Калифорнийского университета в Беркли начали разработку проекта BSD как одного из дистрибутивов Unix. Какой-либо существенный разницы между ними на тот момент не было. Они просто добавили несколько дополнительных утилит, которые включали исходный код, принадлежащий AT&T.
• Однако все начало меняться в начале 80-х, когда решение AT&T продавать Unix привело к появлению спроса на свободный клон Unix-а, но без дорогостоящей лицензии. Разработчики BSD в течение нескольких лет трудились над тем, чтобы отделить их код от кода AT&T. Они медленно, но верно шли к созданию собственной Unix-like системы.
• Их цель была достигнута в июне 1991 года, с выпуском BSD Net 2. И так как BSD Net 2 шла с лицензией, которая давала доступ к исходном коду и право свободно распространять как ее саму, так и любые ее производные, она была по сути первой open source операционной системой в истории. Хотя самого понятия "open source" в то время еще не было, и лицензия BSD не соответствовала требованиям Free Software Foundation Ричарда Столлмана, тем не менее Net 2 стала большим шагом вперед для всего сообщества свободного ПО.
• А еще Net 2 был единственный в то время свободный клоном Unix, который действительно работал. Линус Торвальдс выпустил первую версию ядра Linux лишь через несколько месяцев, причем прошло более чем два года, прежде чем оно стало достаточно применимым. Тогда как в проекте ОС GNU, которую с 1984 года разрабатывали Ричард Столлман и его сторонники, еще не было своего рабочего ядра.
• И если BSD Net 2 была первой свободной Unix-like системой в своем роде, то почему она не смогла "выстрелить" и стать тем, чем стал GNU/Linux - главной платформой экосистемы open source?
• Одной из причин были судебные тяжбы между Berkeley Software Design Inc. (BSDI) и Unix Systems Labs (USL). В начале 90-х компания USL стала владельцем ОС AT&T Unix и подала в суд на BSDI за нарушение авторских прав. Неудивительно, ведь они разрабатывали свободную альтернативу их продукту. В марте 93 года суд отклонил большинство их претензий, а в начале 94 года споры были окончательно урегулированы.
• Второй причиной была лицензия Net 2, которая разрешала практически все. В отличие от лицензии GPL проекта GNU, которая обязывает раскрывать исходный код всех производных продуктов, лицензия BSD к этому не обязывает. Программисты могут свободно заимствовать и модифицировать код для любых задач, не делая его публичным. Это очень хорошо для коммерческих проектов, но плохо для остальных, которые ценят открытость и прозрачность.
• Третья причина заключается в том, что BSD разрабатывалась относительно небольшой группой программистов из Беркли. В то время как разработка ядра Linux велась Линусом с помощью добровольцев по всему миру.
• Разумеется, проект BSD не мог просто исчезнуть после стремительного взлета Linux в 90-х. Более того, множество свободных ОС, берущих начало из Net 2, в первую очередь NetBSD, OpenBSD, FreeBSD, продолжает жить и здравствовать, пусть с небольшим, но зато преданным комьюнити.
• В то же время, характер лицензии BSD привел к ее популярности среди разработчиков проприетарного ПО. Самый яркий пример - это Apple, которая использовала исходники BSD в macOS и iOS. Учитывая это, BSD - в той или иной форме - имеет сегодня огромную армию поклонников, хотя большинство владельцев макбуков и айфонов даже не подозревают, что их устройства используют "open source" код, который разрабатывали в Беркли с 80-х до начала 90-х.
#Разное
🎉 Результаты розыгрыша:
🏆 Победители:
1. Vova (@Dastrilla)
2. venstom24 (@defraq99)
3. Darkrull (@Darkrull)
4. Nikita (@niktorinf)
5. Марат (@strong_690)
✔️Проверить результаты
• Сейчас на рынке собирают довольно любопытный срез по SIEM и защите веб-приложений — не рейтинг вендоров, а именно практика эксплуатации: что реально стоит в компаниях, как это живёт при масштабировании, где начинает болеть и какие ограничения всплывают при переезде в облако.
• Отдельно копают в сторону повседневных проблем: избыточные алерты, сложность поддержки, критерии, по которым команды выбирают инструменты. В общем, пытаются собрать картину того, как устроен мониторинг и AppSec в реальных условиях, а не на слайдах.
• Исследователям интересно мнение тех, кто руками работает с SOC, DevSecOps или отвечает за ИБ. По итогам обещают опубликовать агрегированные результаты для участников.
➡️ Опрос.
#Разное
Можете ли вы прямо сейчас найти:
▪️ Скрытые аккаунты героя вашего расследования?
▪️ Его настоящий адрес, если в декларации указан фейковый?
▪️ Все удаленные твиты за последние 10 лет?
Запись до 30 апреля. Дарим доступ к 50+ заданиям по Osint на hackerlab.pro на 3 месяца!
🔴Присоединиться
Узнайте о новых инструментах для вашей работы:
⚪️ Поиск через авиабилеты/банковские транзакции
⚪️ Анализ геолокаций из фото
⚪️ Работа с базами данных и госреестрами
⚪️ Методы социальной инженерии
✅ Кейс: Как мы раскрыли сеть аферистов через фейковое завещание 🔴читать
🔴 Узнать о курсе
🚀 По всем вопросам @CodebyAcademyBot
• 19 марта была осуществлена целенаправленная и эффективная атака на цепочку поставок через Trivy, инструмент для сканирования уязвимостей с открытым исходным кодом, который используют разработчики и DevOps-команды по всему миру. Хакерам из TeamPCP удалось внедрить вредоносное ПО в официальные рабочие процессы GitHub Actions и образы Docker, относящиеся к Trivy.
• В результате каждый автоматизированный скан конвейера запускал вредоносное ПО, осуществляющее кражу ключей SSH, облачных токенов доступа, криптовалютных кошельков и других ценных данных из пораженных систем. Учитывая критический характер инцидента, ему был присвоен идентификатор CVE-2026-33634 с почти максимальным баллом: CVSS4B 9.4.
• В тот же день команда Trivy зафиксировала факт компрометации и удалила вредоносные артефакты из каналов распространения, остановив эту фазу атаки. Но злоумышленники уже получили доступ к средам многих пользователей Trivy.
• 23 марта была обнаружена аналогичная компрометация в другом инструменте безопасности приложений: GitHub Action для Checkmarx KICS, а также Checkmarx AST. Три часа спустя вредоносный код был удален и здесь. Также TeamPCP смогли скомпрометировать расширения Open VSX, поддерживаемые Checkmarx: cx-dev-assist 1.7.0 и ast-results.
• 24 марта был скомпрометирован популярный проект, использующий сканирование кода от Trivy - универсальная библиотека для вызова ИИ-систем LiteLLM (многофункционального шлюза, который используется в множестве ИИ-агентов). Злоумышленники опубликовали в PyPI вредоносные версии LiteLLM - 1.82.7 и 1.82.8. Версия 1.82.8 распространяла малварь через .pth - файл, и вредоносный код выполнялся при каждом запуске Python-интерпретатора. В настоящее время вредоносные версии уже удалены, и последней "чистой" версией является 1.82.6.
• Вредоносные скрипты, которые попали в версии LiteLLM опасны не только тем, что крадут файлы с конфиденциальными данными, но и тем, что охватывают сразу несколько критических элементов инфраструктуры: локальную систему, облачные runtime-секреты, Kubernetes-кластер и даже криптографические ключи. Такой широкий профиль сбора позволяет атакующему быстро перейти от компрометации одной системы и Python-среды к захвату сервисных аккаунтов, секретов и целых инфраструктур.
• Если вам интересна данная тема, то по ссылке ниже можно найти технический анализ и подробный разбор этой атаки.
➡Компрометация репозитория;
➡Технический анализ;
➡OpenVSX-версия зловреда;
➡Жертвы;
➡Заключение.
➡️ https://securelist.ru/litellm-supply-chain-attack
#Security
📶 IPv6...
• IPv6 больше четверти века обещает избавить интернет от тесноты IPv4-адресов. Его называли будущим сети и грозили цифровым апокалипсисом IPv4… Но на дворе уже 2026 год, а IPv4 всё ещё живее всех живых. Почему за 30 лет мы так и не перешли на IPv6?
• В начале 90-х стало ясно, что 4,3 млрд адресов IPv4 - это очень мало для растущего интернета. Спустя несколько лет инженерная рабочая группа IETF начала разрабатывать новый протокол IPv6, который она представила в качестве долгосрочного решения проблемы ограниченного адресного пространства. Его базовая спецификация - RFC 1883 - была опубликована в декабре 1995 года. А после, в 1998 году, была обновлена до RFC 2460.
• Новый протокол IPv6 получил адреса длиной 128 бит (против 32 бит у IPv4) - то есть примерно 340 ундециллионов адресов. Про дефицит адресов в этом случае можно забыть навсегда.
• Казалось, что светлое будущее у интернета будет только благодаря IPv6. Поэтому в конце 90-х появились первые реализации нового протокола в ОС (в Linux — в 1996 году, в Windows — с 2000 года).
• Многие ожидали, что переход на IPv6 произойдёт чуть ли не в середине нулевых, ещё до наступления спрогнозированного адресного коллапса IPv4. Однако реальность скорректировала планы, потому что инженеры придумали, как оттянуть "конец" IPv4.
• До появления IPv6 индустрия внедрила бесклассовую адресацию (CIDR), переменную длину маски (VLSM) и, главное, NAT (Network Address Translation). Всё это делалось ради того, чтобы IPv4 жил.
• Благодаря NAT десятки устройств смогли скрываться за одним публичным IPv4-адресом, и миру этого хватило на годы вперёд. Появились даже приватные подсети (10.0.0.0/8, 192.168.0.0/16 и др.) для устройств, которые не требуют глобальных адресов (это про умные кофеварки и пылесосы).
"Эликсиры молодости" для IPv4 настолько хорошо сработали, что переход на IPv6 обесценился. Между тем свободные IPv4-адреса формально закончились.
• В 2011 году IANA (координирует распределение уникальных идентификаторов в интернете) выдала последние крупные блоки региональным регистраторам, а к 2020 году исчерпались и региональные пулы. Например, Европа объявила об опустевшем фонде IPv4 осенью 2019 года.
Но интернет не рухнул. Провайдеры ещё раз сжали IPv4-адреса в NAT, и появились CGNAT (Carrier-Grade NAT) на уровне операторов связи.
• Но что с IPv6? Его официально "запускали" несколько раз. World IPv6 Day в июне 2011 года позволил тысячам сайтов целые сутки тестировать работу по IPv6. Годом позже, 6 июня 2012 года, состоялся World IPv6 Launch — провайдеры и компании торжественно объявили о постоянном включении IPv6. Казалось, вот он, переломный момент, но прошёл 2012-й, 2013-й… начался 2026-й, а картина практически не изменилась.
• Главная проблема нового протокола кроется в его дизайне. IPv6 не совместим с IPv4 - это фактически отдельная сеть. Устройство или сайт с IPv6 не сможет напрямую "общаться" с узлом, у которого только IPv4.
• В итоге любая компания, решившая "прикрутить" IPv6, сталкивается с тем, что полностью отключить IPv4 не получится. Приходится поддерживать обе адресации, удваивая часть инфраструктуры.
• Получается довольно мрачная картина. Однако это не значит, что IPv6 он был ошибкой или совсем никому не нужен. Наоборот, IPv6 - это будущее, которое наступает постепенно.
• Большие игроки (Google и Amazon) давно работают по IPv6, им это по силам и выгодно, так как масштабы большие. Мобильные операторы, особенно в Азии и Европе, за последние годы резко подняли долю IPv6, ведь смартфонам не нужен статический IPv4. А новые проекты и стартапы уже стараются закладывать поддержку IPv6 "с нуля".
• Но массового отключения IPv4 в ближайшее время ждать не стоит (особенно в России). Эксперты полагают, что как минимум до конца десятилетия IPv4 будет сосуществовать с IPv6, а возможно, и ещё дольше.
• Пока нам всем приходится жить на двух протоколах сразу, лавируя между старым и новым. Кто знает, может, через десять лет мы оглянемся и удивимся, как долго жили в эпоху IPv4.
#Разное
🔹🔹🔹🔹26 марта в 12:00 (мск) пройдет бесплатный вебинар «Сервисы шифрования в MWS Cloud Platform: возможности и сценарии использования».
Разработчики сервисов расскажут:
⚫️как сервисы шифрования помогают обеспечивать безопасность данных в облаке;
⚫️какие сценарии использования сервисов доступны пользователям MWS Cloud Platform;
⚫️как использовать сервисы на практике — демонстрация от спикеров;
⚫️какие обновления сервисов стоит ожидать в ближайшее время.
Вебинар будет полезен ИБ-специалистам и инженерам, работающим в облачных средах. Регистрируйтесь, подключайтесь к прямому эфиру и задавайте вопросы в чате.
⏰ 26 марта в 12:00
➡️ Зарегистрироваться
🖥 Самый ранний вариант DOS атаки - SYN Flood.
• Рассмотрим эпизод из карьеры знаменитого хакера Кевина Митника, который пытался получить несанкционированный доступ к машине своего давнего оппонента Цутому Симомуры. Для этого он хакнул машинку в лабораторной сети и постарался представиться логин-сервером, с которого был доверенный логин на искомый терминал.
• Проблема в том, что если спуфить подключение, представляясь чужой машиной, нужно как-то вывести настоящую машину из обращения, чтобы она не смогла ничего сказать. Для этого Митник использовал генерацию большого количества SYN-пакетов со взломанной машинки, отправил их с указанием чужого валидного, но не используемого спуфленного IP-адреса из этой локалки.
• Server.login честно принял все пакеты в очередь полуоткрытых соединений, забил очередь до потолка и отослал все SYN-ACK несуществующей машине. Так что, когда Митник успешно спуфил соединение, представляясь логин-сервером, тот не мог ничего сказать терминалу, который слал SYN-ACK пакет, так как логин-сервер был уже плотно занят. В итоге Митник установил TCP-соединение, получил shell, посадил туда бэкдор, закрыл соединение и отправил reset на логин-сервер. Вся атака, если верить логам, длилась 16 секунд.
• Атака Митника - это правильный пример SYN Flood - одного из самых старых, по крайней мере, описанных в летописной истории, вариантов DoS-атаки. Тогда это была ещё не распределённая атака, а Denial of Service с одной машины. Но после этого появился подробный разбор этой ситуации с логами и прочим в mailing-листах: сначала вышла книжка Cимомуры, потом - Митника. Таким образом, люди, которые интересуются интернетом и технологиями, узнали, что так, оказывается, было можно.
Продолжение: ⬇️
👩💻 Kubernetes The Hard Way.
• Год назад делился с вами очень крутым материалом, автор которого потратил огромное кол-во времени и пересобрал сотни кластеров k8s, что помогло реализовать полноценный гайд по ручному развертыванию Kubernetes без использования автоматизированных инструментов, таких как kubeadm.
• Так вот, совсем недавно автор опубликовал новый материал из этой серии. Статья получилась небольшой, но полезной - поможет освежить в памяти хорошо забытое старое и, возможно, узнать что-то новое.
• Напомню, что в первой статье мы собрали control plane вручную: выпустили сертификаты, подготовили конфигурации и запустили управляющие компоненты. API-сервер уже отвечает, но кластер пока остается без рабочих узлов.
• Пока в кластере нет worker-нод, запускать прикладные поды просто негде. Во второй части мы добавим Worker-ноду и разберем весь путь от чистой VM до зарегистрированного узла в Kubernetes.
Kubernetes The Hard Wa. Часть 1:
➡Введение;
➡Почему «The Hard Way»;
➡Архитектура развертывания;
➡Создание инфраструктуры;
➡Базовая настройка узлов;
➡Загрузка модулей ядра;
➡Настройка параметров sysctl;
➡Установка компонентов;
➡Настройка компонентов;
➡Проверка готовности компонентов;
➡Работа с сертификатами;
➡Создание корневых сертификатов;
➡Создание сертификатов приложений;
➡Создание ключа подписи ServiceAccount;
➡Создание всех сертификатов;
➡Создание конфигураций kubeconfig;
➡Создание всех kubeconfig;
➡Проверка блока сертификатов;
➡Создание static pod-ов управляющего контура;
➡Создание всех static pod-ов управляющего контура;
➡Создание static pod-ов ETCD кластера;
➡Запуск службы Kubelet;
➡Проверка состояния кластера;
➡Настройка ролевой модели;
➡Загрузка конфигурации в кластер;
➡Загрузка корневых сертификатов в кластер;
➡Маркировка и ограничение узлов.
Kubernetes The Hard Wa. Часть 2:
➡Инфраструктура;
➡Базовая настройка узлов;
➡Загрузка модулей ядра;
➡Настройка параметров sysctl;
➡Установка компонентов;
➡Настройка компонентов;
➡Аутентификация;
➡Запуск Kubelet;
➡Проверка;
➡Вывод.
#Kubernetes
• Ситуация: на дворе 2003-й год. Кто-то из вашей семьи разговаривает по телефону, чем занимает линию, к которой подключен модем. В ожидании своей очереди и возможности выйти в сеть вы решаете в очередной раз покопаться в библиотеке бесплатной музыки, которую разработчики поставили вместе с Windows. В то время она лежала в папке "Образцы музыки" - помните такую?
• К слову, Музыка появилась в Windows 3.1, представленной в 90-х. Примерно в это время на рынок вышли первые звуковые карты с поддержкой MIDI. Также начало появляться программное обеспечение для работы с этим форматом — например, Steinberg Cubase и Finale.
• Windows 3.1 включала девять MIDI-композиций, которые лежали в папке C:\WINDOWS\MEDIA. Прослушать их все можно на сайте Archive.org.
• Два трека являются отрывками классических произведений Баха и Вивальди - "Бранденбургских концертов" и "Времен года". Еще две работы демонстрировали возможности MIDI-секвенсора Passport Designs - PASSPORT.MID и CANYON.MID.
• Автор первой доподлинно неизвестен, но композитором второй выступил джазовый музыкант Джордж Стоун. Но он не предполагал, что музыка будет распространяться вместе с Windows (он писал её для рекламы секвенсора на MAC). Passport Designs испытывала финансовые трудности и продала права на композицию Microsoft без ведома Стоуна. Джордж не получил от этой сделки денег, однако его работа обрела широкое признание.
• Что касается Windows 95, то здесь к предыдущим девяти трекам добавили CLOUDS.MID. Он задумывался как "пасхалка", поэтому его не было в директории MEDIA. Чтобы послушать композицию, нужно было выполнить ряд манипуляций с папками. Инструкция есть в блоге композитора CLOUDS - Брайана Орра, который в то время был стажером в Microsoft.
• В Windows 98 все MIDI-треки заменили тремя новыми файлами. Как рассказали представители Microsoft, в них было задействовано мало музыкальных инструментов.
• А вот Windows XP стала первой операционной системой, в которой появилась всем известная директория "Образцы музыки". В ней лежали композиции с последнего альбома рок-группы Talking Heads, а также скерцо из Девятой симфонии Бетховен и легкий джазовый номер под названием "Highway Blues" от Марка Силса.
• В Windows Vista количество музыкальных треков, которые шли с системой, достигло одиннадцати. В Windows 7 добавили еще одну композицию, а вот начиная с Windows 8, Microsoft перестали включать музыку от избранных исполнителей вместе с операционными системами и папка с "образцами" пропала из операционной системы. Можно сказать, что ушла целая эпоха...
#Разное
• Сканер уязвимостей Trivy, который используют разработчики и DevOps-команды по всему миру, был повторно скомпрометирован в результате атаки на цепочку поставок.
• Группа TeamPCP (DeadCatx3, PCPcat, PersyPCP и ShellForce) "угнала" процесс сборки проекта на GitHub, встроила бэкдор в версию 0.69.4 и принудительно обновила 75 из 76 тегов версий в репозитории trivy-action. Любой рабочий процесс CI/CD, ссылающийся на эти теги, инсталлировал жертвам инфостилер.
• По данным исследователей, зловред прочёсывал CI/CD-пайплайны, машины разработчиков и окружение в поисках GitHub-токенов, облачных учётных данных, SSH-ключей, Kubernetes-токенов и других секретов. Всё найденное стиллер архивировал, шифровал и отправлял на сервер, контролируемый атакующими.
• О проблеме публично сообщил мейнтейнер Trivy Итай Шакури. По его словам, если есть хоть малейшее подозрение, что в пайплайне запускалась скомпрометированная версия, все секреты нужно считать утёкшими и срочно ротировать.
➡️ https://www.bleepingcomputer.com/trivy
#Новости
• Совсем забыл, что на этой неделе, 16 марта, Ричарду Столлману исполнилось 73 года. Главная заслуга Столлмана состоит в том, что он положил начало движению за свободное программное обеспечение (СПО). В 1983 году он объявил о плане разработки операционной системы GNU, которая должна была состоять исключительно из СПО, см. философию свободного ПО.
• Столлман с единомышленниками приступил к разработке GNU в 1984 году. Последний пробел в GNU был заполнен в 1992 году, когда Линус Торвальдс опубликовал под свободной лицензией ядро Linux, собранное с помощью инструментов разработки GNU. В результате появилась объединённая операционная система GNU/Linux, которая широко используется сегодня в виде десятков дистрибутивов, хотя многие из них и не до конца соответствуют требованиям GNU (например, включают частично коммерческий софт).
• Многие пользователи Android-смартфонов даже не знают, что свободное ядро на их телефонах - в конечном итоге заслуга Ричарда Столлмана.
• В 1985 году Столлман основал Фонд свободного программного обеспечения и остаётся его президентом до сих пор.
• С середины 90-х отошёл от кодинга и занялся пропагандой открытого софта. Его работой стало ездить по всему миру на конференции и публиковать зажигательные статьи. Нужно отметить, что Столлман придавал большое значение терминологии. Например, выступал против термина "опенсорс" (это модель разработки), а строго за "свободное ПО" (это ценностное описание, поскольку свобода — главная ценность, которую даёт открытый софт).
• Также выступал за принципиальное использование фразы GNU/Linux или GNU+Linux, чтобы подчеркнуть суть операционной системы, которая основана на проекте GNU и ядре от финского программиста (Линуса Торвальдса) как составной части.
• В 2013 году Ричард Столлман принят в Зал славы интернета. Лауреат наград ACM Grace Murray Hopper Award (1990), EFF Pioneer Award (1998, вместе с Линусом Торвальдсом), ACM Software System Award (2015, за GCC) и MacArthur Fellowship 1990. Это лишь некоторые из длинного списка наград.
#Разное
• Никогда такого не было, и вот опять: офицер французского флота слил данные о точном местоположении авианосца «Шарль де Голль», воспользовавшись сервисом для отслеживания индивидуальных результатов занятий спортом Strava!
• Сервис записал и сохранил данные в публичный профиль военнослужащего о его семикилометровой пробежке по палубе корабля. Так стало известно, что «Шарль де Голль» находится в Средиземном море близ Кипра в 62 милях от побережья Турции.
• Как позже заявил высокопоставленный представитель французских вооружённых сил, член экипажа авианосца нарушил правила обеспечения безопасности. Командование пообещало предпринять соответствующие меры.
• К слову, это не первый подобный инцидент – в 2025 году выяснилось, что более 450 человек пользовались Strava на базе подводных лодок в Брестской гавани (Финистер), которая является ключевым объектом французского ядерного флота. Некоторые из этих пользователей внезапно прекращали заниматься спортом на определённое время, что означало – ушли в плавание. Выделить из совокупности таких данных сведения о членах экипажей подлодок технически несложно.
• А еще раньше, в 2018 году, сообщалось, что с помощью Strava было раскрыто расположение секретных военных баз США по всему миру. Эта информация стала достянием общественности после того, как 20-летний студент из Австралии Натан Разер проанализировал интерактивную карту Global Heat Map. Она была опубликована на сайте Strava в ноябре 2017 года. На карте были показаны все места, где занимаются спортом пользователи сети. Чуть позже Натан обнаружил, что на карте показаны маршруты пробежек американских солдат в Сирии, маршруты на пляже у предполагаемой базы ЦРУ в Могадишо (Сомали), расположение оперативных баз американских спецназовцев в зоне Африканского Сахеля и ряд других военных объектов...
➡️ Источник.
#Новости
✈️ Telegram-пейджер на Raspberry Pi через Mesh-сеть.
• С помощью двух библиотек (Meshtastic и Telethon) и Raspberry Pi, энтузиаст реализовал работу Telegram через mesh-сеть! Решение работает как мост: запрос идёт с переносного устройства - приходит на домашний узел - тот тянет данные из Telegram и отдаёт обратно. В итоге получился Telegram без сети: можно читать каналы и получать сообщения. Но есть и минусы - текущая сборка пока что очень сильно расходует батарею во время работы.
Я забиндил несколько каналов, они автоматически считываются через мой аккаунт, посты кэшируются и ждут запроса. Потом могу обновлять когда надо — можно по таймеру, можно вручную. Можно и личные сообщения получать автоматом. Короче, возможностей много.
Но здесь не про это. А про то, что на Meshtastic можно зацепить вообще всё что угодно. Любой сервер, любые данные. В чём плюс — mesh-сети в городах уже большие, и вы можете очень далеко получать любую информацию.
Например, серверное оборудование — по запросу получаете статус и метрики.
Или навороченный автомобиль — вешаете кучу датчиков и издалека опрашиваете, и даже управляете через mesh-сеть.
Для безопасности лучше создать зашифрованный канал, чтобы пакеты шли закрытыми. Конечно, лазейки всегда есть, это не супер-секретная тема — но зато получается рабочий инструмент, который можно адаптировать практически под всё что угодно.
• 95% международного интернет-трафика проходит по волоконно-оптическим кабелям, которые лежат на дне морей и океанов, они соединяют почти все центры обработки данных на территории разных стран. На первом видео вы можете визуально понять, что из себя представляет карта таких подводных сетей, ну или посмотреть интерактивную карту в 2D.
• А вот на втором видео можно оценить масштаб покрытия нашей планеты спутниками Starlink. Вот только это видео сделано полтора года назад, а общее число спутников, на тот момент времени, был в районе 6000. Теперь их стало значительно больше - 10000. Преодоление порога в 10 тыс. активных спутников на орбите обеспечил запуск 25 аппаратов Starlink v2 mini 17 марта 2026 года на ракете Falcon 9. А в середине февраля SpaceX отчиталась о более чем 10 млн. активных клиентах сервиса.
• К слову, есть один интересный сайт, который отслеживает движение всех спутников и показывает их количество: https://satellitemap.space/
#Разное #Новости