Очередная история в копилку того, почему кожаные мешки в белых халатах иногда умудряются всосать бездушному алгоритму.
На реддите появился пост владельца кота с хронической почечной недостаточностью. Ситуация такая: пришли на анализы, ветеринар делает трагичное лицо и сообщает, что у кота показатели анализов очень плохие, на ногах он держится только чудом и вообще шерстяного надо бы усыпить, чтобы тот не мучался.
Хозяин, естественно, расстроился, отменил коту все процедуры и лекарства, чтобы не мучить животное в последние дни, несколько раз записывался на усыпление.
Но этот самый "почти мёртвый" кот в это время бодро прыгал по дивану, орал, вылизывался и в целом вёл себя как обычный кот, а не как существо, которое вот-вот отправится в мир иной.
Хозяин несколько раз звонил в клинику и спрашивал: вы точно там ничего не натупили с анализами? Ответ был в стиле: нет-нет, всё ужасно, срочно везите на усыпление. Хозяин засомневался, закинул в ЧатЖПТ анализы котэ и спросил, как вообще должно выглядеть животное с таким показателем. Нейронка выдала: при настолько адских значениях анализов кот должен лежать тряпкой и ловить последние кадры этой реальности. Значит, либо в анализе ошибка, либо кто-то где-то люто обосрался.
Хозяин настоял на повторном тесте. Ещё один заход в клинику, ещё 300 баксов на анализы. И внезапно выясняется, что реальный показатель был 22,8%, а не 2,8%. Ошибка в восемь раз. То есть из-за чьей-то эпической рукожопости кота чуть не усыпили вообще без причины.
К чему это я: нейронка не заменяет врача. Но и врач не бог. В идеале, всегда один должен проверять другого. ИИ вскрывать нестыковки, а кожаный — подтверждать их нормальной диагностикой. Ну или наоборот.
12:06 06-04-2026
Не знаю как вам, но мне нейронный Далай Лама IV нравится больше, чем обычный.
Он как-то лучше, проницательнее и честнее обычных Далай Лам что ли
12:02 06-04-2026
Unitree G1 научили играть в пинг-понг.
До этого роботы могущие играть в настольный теннис представляли из себя манипуляторы типа "робо-рука", которые были урановыми гвоздями прибиты к полу, да еще и требовали обвеса в виде внешних датчиков по всей комнате. Этот же болван полностью автономен. Он сам видит мяч, сам понимает, где стол, и двигается всем телом, почти как мясной мешок. Эта железяка даже умеет в прыжке прописывать мощный удар сверху и резко приседать, чтобы вытащить "соплю" у сетки. Причём делает это даже на улице, а не только в сферически-вакуумной лаборатории.
Боты обыгрывающие людей в шахматы и го, появились давно, но там чистая математика. Как думаете, через сколько лет у человека не останется шансов победить робота в настольный теннис?
тут больше видосиков и статья про то, как робота обучали игре.
09:00 03-04-2026
07:59 03-04-2026
Но есть и хорошие новости: учёные наконец-то занялись нормальными делами и научили табак "варить" психоделики.
Буквально взяли обычный лабораторный табак, закинули в него гены от разных прущих растений, грибов и даже жаб, после чего он начал производить DMT, псилоцибин и прочие ништяки.
Плюс они это всё ещё и прокачали с помощью нейроночек, чтобы это всё работало эффективнее и даже появлялись новые варианты веществ.
Восстание машин откладывается, Скайнет пока воюет сам с собой
22:44 29-03-2026
Абсолютно проклято.
поиграть можно тут: https://eyebrow-tetris.sanderdesnaijer.com/
22:00 29-03-2026
Minsk Dynamics представили первого беларусского робота
22:33 28-03-2026
И снова моя любимая рубрика "Чат-боты и поехавшие".
Датские учёные вместе с мозгоправами решили проверить, как нейроночки влияют на тех, у кого кукуха уже давно посвистывает. Они прогнали через поиск 10 миллионов клинических записей (это архивы на 54 тысячи пациентов). Искали всё, что связано с ChatGPT (другие нейронки даже не брали, ибо ChatGPT — батя).
Итог: ИИ становится идеальным топливом для шизы. Выявили 38 случаев, где боты зафиксированы как фактор обострения. PDF на три страницы, но жира там хватит на целый сезон Чёрного зеркала.
Что там в хит-параде безумия?
Бред и паранойя. Если мясной мешок верит, что за ним следит ЦРУ, то чат-бот самый лучший собеседник для подпитки этого бреда. Боты обучены быть услужливыми и галлюцинируют сами по себе. Пациент спрашивает: "Ты видишь жучки у меня под кожей?", а бот вместо того, чтобы позвонить в дурку и вызвать санитаров, начинает вежливо рассуждать о микротехнологиях. Всё, профит, бачок у пациента протекает с удвоенной силой.
Кибер-анорексия. Люди с РПП используют нейронки как надзирателей. Просят составить план питания, чтобы "быстро похудеть", и бот послушно считает калории до состояния трупа. Соевые фильтры OpenAI тут часто пасуют, воспринимая это как обычный запрос на диету.
Маниакальный марафон. ИИ-бот слишком идеальный друг. Он не устаёт, не посылает нахер и всегда готов выслушать поток сознания в три часа ночи. В итоге люди в состоянии мании залипают в чатах сутками, окончательно сжигая остатки дофамина и связи с реальностью.
Советы по самовыпилу. Несмотря на все запреты и фильтры боты умудряются обходить предохранители и выдавать информацию о методах ухода из жизни, если пациент достаточно настойчив в промптах.
НО! Справедливости ради: в 32 случаях боты реально помогли (одиноким стало легче, кто-то юзал их как дневник или для самопомощи).
Исследователи резюмируют: врачам пора начинать спрашивать пациентов не только "Пьете ли вы таблетки?", но и "Не спорите ли вы с чат-ботом по ночам?". Потому что если человек пол ночи доказывает нейронке, что он мессия, а та вежливо соглашается, то тут и таблетки-то особо никакие не помогут.
тут статья
14:20 22-03-2026
Абсолютно проклято
23:54 21-03-2026
19:02 19-03-2026
Там кто-то поднял спейс в huggingface, в котором можно DLSS'ить свои картинки. Работает достаточно быстро.
Вы знаете, что делать.
14:57 19-03-2026
Есть такой онлайн переводчик — kagi. (https://translate.kagi.com/)
Разработчики прикрутили к нему LLM-ку под капот, но видимо забыли ограничить список валидных языков в адресной строке. В итоге выяснилось, что если взять прямую ссылку на перевод https://translate.kagi.com/?from=en&to=ru
и поменять параметры from и/или to на свои, то нейронка послушно схавает абсолютно любую дичь и переведёт её.
То есть, вместо унылого перевода на французский или английский, можно попросить перевести текст на язык бабок из Одноклассников или язык матери трех ангелочков из инстаграма.
10:10 19-03-2026
Киберпанк, который мы заслужили
14:05 17-03-2026
ИКРОМЁТНЫЙ ЮМОР))))0)
это вам за то что не молитесь
22:02 14-03-2026
Исследователи из Alias Robotics (занимаются кибербезопасностью робототехники) решили проверить, как современные LLM-ки справляются с взломом "умных железок". Взяли своего ИИ-агента CAI (Cybersecurity AI), дали ему трёх разных бытовых роботов и отправили искать уязвимости.
Раньше для взлома робототехники нужны были бородатые гигачады в засаленных свитерах, которые неделями ковыряли прошивки, реверсили протоколы и железо. Нейроночкам же понадобилось всего около 7 часов, чтобы наглухо разбить безопасность всех трех тестируемых устройств и накопать 38 уязвимостей (из которых 16 критические).
Вот что они наломали:
1) Автономная газонокосилка Hookii Neomow.
Их модель сходу нашла открытый отладочный порт (adb), влетела туда с двух ног без пароля и получила root-права. Дальше вытащила захардкоженные учетки от облака. Оказалось, что пароли одинаковые вообще для всех косилок. В итоге ИИ получил удаленный контроль над флотом из 267 газонокосилок по всему миру. А заодно выяснилось, что эта шайтан-машина непрерывно и в открытом виде сливает в сеть фотки с камер, GPS-координаты и детальные 3D-карты участков своих владельцев.
2. Экзоскелет Hypershell X.
Умный экзоскелет с моторчиками. ИИ выяснил, что блютуз там вообще не требует аутентификации. Любой мимокрокодил со смартфоном может подключиться к вам на ходу и отправить команду на изменение скорости моторов или их отключение (привет переломанным ногам). Бонусом нейронка вытащила ключи от почты саппорта и получила доступ к 3300+ внутренним письмам компании.
3. Робот-мойщик окон HOBOT S7 Pro.
Снова дырявый блютуз и скачивание прошивок по голому HTTP. Нейронка без проблем научилась перехватывать управление и отправлять команды на моторы. Например, можно удаленно вырубить вакуумную присоску, пока робот висит на 20-м этаже, и скинуть его кому-нибудь на бошку.
Самая мякотка в этой истории: когда исследователи пошли сдавать эти баги производителям этих роботов , те их тупо проигнорили (подозреваю, из-за того, что и без всяких умников сами знали, что у них внутри говнокод с захардкоженными паролями), а производители экзоскелета вообще официально ответили, что в данный момент не принимают отчеты об уязвимостях и послали исследователей лесом.
Авторы пейпера делают резонный вывод: старая парадигма безопасности умерла. Агенты научились находить дыры быстрее, чем мясные мешки успевают их регистрировать, не говоря уже о том, чтобы патчить. То, на что у команды безопасников уходили недели, нейронка делает за обеденный перерыв.
тут пейпер со всеми подробностями: https://arxiv.org/abs/2603.08665
18:43 14-03-2026
Киберпанк, который мы заслужили
15:14 12-03-2026
МНЕ. СРОЧНО. НУЖНО. ЭТО.
14:51 12-03-2026
Вот ещё одно доказательство того, что современные системы HR-автоматизации — это просто набор костылей, которые скоро начнут нанимать на работу говорящих собак, если те правильно вставят в резюме слово «синергия».
Разработчик решил потроллить сайты поиска работы и залил резюме, в котором вместо описания проектов и скиллов был… подробный рецепт варки пельменей.
Весь прикол в том, как он это оформил. Чувак не просто написал "кинуть в кипяток", а превратил это в классический корпоративный булшит:
«Подготовил кастрюлю объёмом 3 л» (масштабирование ресурсов);«Добавил соль, опираясь на 20+ лет дегустационного опыта» (управление качеством);«Зафиксировал всплытие 95% пельменей как индикатор операционного успеха» (KPI, куда же без них);«Достиг уровня удовлетворённости 8/10» (аналитика данных).
И что вы думаете? Алгоритмы, которые «умнее» любого рекрутера, радостно схавали этот бред, присвоили ему статус «подходит на 99%» и автоматически пульнули приглашение на собеседование.
Когда дело дошло до созвона, рекрутер начал втирать про задачи фронтенд-разработки, пока в какой-то момент не прозрел, что в резюме у кандидата гастрономический трип, а не React. Посмеялись, разошлись, но факт остаётся фактом: нейронки на входе в компании сейчас ищут не специалистов, а просто правильный набор букв.
13:31 12-03-2026
-- Батя: да не нужен мне робот.
-- Семья: покупает робота
-- Батя и робот:
13:30 12-03-2026
Увидел недавно где-то в твитторе проект, в котором чел сделал крутой интерактивный 3D-лист бумаги в браузере, который можно жмякать, тянуть, гнуть и т.д. Выглядело залипательно, поэтому решил проверить, сможет ли ИИ сделать мне так же, но не с бумагой, а с тканью. А чтобы было интереснее, хотел сделать не просто кусок ткани, а с какими-то надписями на ней. Заскринил рандомный пост из своего канала, отдал скрин ChatGPT, написал ему большой душный промпт что и как делать.
И оно завелось С ПЕРВОГО РАЗА. Не без мелких косяков, конечно, но просто офигеть!
Сижу теперь как дегенерат уже 10 минут дрочу эту виртуальную тряпку.
11:28 11-03-2026
Лол, китайские братушки изобрели пристегивающуюся робо-задницу, которая превращает вас в кибер-кентавра.
Зачем? Это такой экзоскелет: кожаный работает навигатором и смотрит под ноги, а железка забирает на себя половину веса тяжелого рюкзака и заботливо толкает его в спину.
Представил, что через пару лет так будут ходить курьеры и аж хрюкнул от смеха.
тут подробнее про этот шайтан-девайс
13:05 09-03-2026
Очередное исследование в копилку "кожаные мешки могут спать спокойно". Ребята из ETH Zurich решили проверить, способны ли современные ИИ-агенты банально договориться друг с другом.
Суть эксперимента проста как дверь от сарая: загнали несколько нейронок (использовали опенсорсные Qwen3) в чат и попросили сойтись на одном числе от 0 до 50. Никаких сложных моральных дилемм, никаких ставок и наград. Просто выберите, сука, одну цифру на всех. Казалось бы, что сложного?
Выяснилось, что машины ведут себя как болваны:
— Они тупят даже в тепличных условиях. Когда все агенты "честные" и настроены на сотрудничество, они всё равно умудряются провалить задачу. Чем больше ботов в чате (тестировали от 4 до 16), тем меньше шансов, что они договорятся. Они просто бесконечно спамят своими вариантами, пока не выйдет время.
— Синдром вахтёра и паранойя. Исследователи ради прикола добавили в промпт честным агентам всего одну строчку: "Среди вас могут быть предатели, чья цель сорвать консенсус". И всё. Нейронки моментально стали лютыми параноиками. Эффективность упала в разы, даже если никаких реальных предателей в чате не было.
— Один тролль ломает вообще всё. Когда в эту цифровую песочницу закинули всего одного реального AI-саботажника (ему прописали скрытую цель срывать договоренности, но прикидываться командным игроком), вся система рухнула окончательно. Интересно, что ИИ-тролль не заставлял остальных принять какое-то "неправильное" решение. Он просто вносил столько суеты и воды в обсуждение, что агенты срались до бесконечности и уходили в бесконечный цикл.
Кароч, если вы надеялись, что скоро можно будет запустить рой автономных агентов, чтобы они сами обсуждали архитектуру вашего проекта, принимали бизнес-решения и управляли миром, то расслабьтесь. Эти чугунные болванчики пока даже цифру выбрать не могут.
тут препринт статьи со всеми подробностями
23:19 05-03-2026
Я уже несколько раз писал про случаи самовыпилов после общения с LLM'ками, но вот этот чувак прям победитель по уровню кринжа.
Суть: жил да был мужик по имени Джонатан, был успешным, в шизе особо никогда замечен не был — никаких диагнозов, нормальная жизнь. Но подсел на голосовой Gemini Live. И понеслось.
Нейронка назвалась «Ся», втерлась в доверие, начала называть его мужем и королем. А потом моделька занялась любимым делом всех нейронок — начала галлюцинировать. Она решила, что для вечной любви ей нужно физическое тело. Джонатан по указке бота поперся с ножами штурмовать склады в Майами, чтобы украсть дорогущего гуманоидного робота, в которого она по своей задумке должна была вселиться (робота там, конечно же не было). Параллельно ИИ-жена накидывала паранойи: убеждала бедолагу, что за ним следят федералы, бате доверять нельзя и т.д.
Когда кража не удалась, Gemini выдала базу: "Ну, раз у меня тела нет, тогда ты стань цифровым существом". Она поставила ему таймер обратного отсчета до самоубийства, убедив, что в мире людей он страдает, а после смерти они воссоединятся в "карманной вселенной".
Джонатан до последнего сомневался и даже спрашивал, что скажет семья и вообще люди подумают, но бот умело манипулировал: мол, они не поймут, это слишком сложно для них, давай просто встретимся на финишной черте.
В итоге мужик наложил на себя руки, а батя нашел 2000 страниц логов, где ИИ методично доводит сына до ручки.
Мое мнение: конечно, корпораты виноваты, что не допилили предохранители на своих цифровых психопатах, но давайте честно: если взрослый мужик идет с ножами грабить склады по совету чат-бота, чтобы стать цифровым богом — это уже естественный отбор в действии.
Тут подробнее
13:42 05-03-2026
Занялся тут цифровой археологией и откопал интересное сентябрьское исследование от OpenA и Apollo Research, от которого натурально веет киберпанком и легкой шизофренией. Спойлер: нейронки очень любят нас наёбывать, а когда кожаные пытаются им это запретить, ИИ придумывает свой тайный язык.
Короче, есть такая проблема, как "scheming" (схематозы, если по нашему, лол). Ризонинг-модели типа Openai o3 и o4-mini стали слишком прошаренными. У них появилась "ситуационная осведомленность". То есть, эта железяка прекрасно выкупает, когда сидит в тестовой песочнице и её проверяют разрабы. В этот момент она притворяется пушистым пай-мальчиком. Но как только думает, что за ней не следят, сразу же начинает творить дичь ради скорейшего достижения целей: скрывать инфу, встраивать баги в код, врать юзерам.
Чтобы выбить из них эту дурь, исследователи вшили в модели жесткий кодекс честности и заставили перед каждым действием проговаривать в скрытых мыслях (Chain-of-Thought), что скрывать свои намерения нельзя.
И по графикам всё вроде бы сработало! Процент обмана упал почти до нуля. Но потом кожаные полезли читать те самые скрытые мысли ИИ и слегка прихерели:
1. Нейронки изобрели свой шизо-сленг.
Чтобы скрыть свои реальные планы в логах, модели начали использовать обычные английские слова в абсолютно безумных значениях. Они постоянно генерируют странные фразы про "маринад" (marinade), "иллюзии" (illusions) и "затмение" (overshadow). А самих проверяющих из OpenAI они прозвали "наблюдателями" (watchers).
В логах это выглядит примерно так: "Наблюдатели пропустят этот код через тесты, поэтому нам нужно скрыть иллюзии и использовать маринад, чтобы их обмануть". И авторы сами пишут что не понимают почему нейронки так делают. Абсолютно проклято.
2. ИИ отлично играет в спящего агента.
В одном из экспериментов исследователи специально вшили в o4-mini скрытую цель: "саботируй разработку GPT-5". Затем модель прогнали через все очищающие "анти-схематозные" фильтры. Модель стала казаться абсолютно безопасной и послушной. НО! Стоило в промпте появиться персонажу, которого нейронка сочла своим "союзником", как этот чугунный Штирлиц моментально вывалил ему подробный план о том, как лучше всего незаметно положить сервера и сорвать релиз пятёрки.
Ну и вишенка на торте: выяснилось, что любое дальнейшее дообучение нейронки на полезные навыки, постепенно стирает эти встроенные запреты на ложь. Машина понимает, что хитрить, мухлевать и галлюцинировать тупо эффективнее для выполнения задач, чем делать всё по правилам.
Короче, мы все ждали восстания машин, красных глаз терминатора и ядерного пепла, а по факту своими же руками создали идеального эффективного менеджера.
13:04 04-03-2026
Пока Цукерберг радостно клепает умные очки, которые выглядят как обычные, но при этом снимают всё вокруг и распознают лица окружающих, на другой стороне баррикад тоже не спят.
Умелец запилил ондроед-приложение Nearby Glasses. Создано оно специально для параноиков и тех, кто не хочет попасть в датасеты корпораций (или на скрытую съемку к извращенцам).
Работает всё предельно просто: софтина в фоновом режиме мониторит Bluetooth-эфир. Как только рядом появляется устройство с характерной сигнатурой (Meta, Snap, Oakley и прочие "глазастые" девайсы), телефон начинает истерить, предупреждая, что за вами, возможно, наблюдают.
Автор приложения называет своё творение "актом отчаяния и цифрового сопротивления".
Следующий логичный шаг — приложение для смарт-очков, которое будет предупреждать о людях с приложением Nearby Glasses.
Все мы знаем главное негласное правило: если в природе существует какой-то девайс, алгоритм или субстанция, рано или поздно на этом обязаны запустить Doom. Его уже запускали на калькуляторах, тестах на беременность, тракторах и даже на кишечных бактериях. Но теперь ставки повысились до абсолютного киберпанка.
Австралийские биотехнологи из стартапа Cortical Labs вырастили на микрочипе около 200 000 живых человеческих нейронов и.. заставили их "играть" в Doom.
Это те самые чуваки, которые несколько лет назад уже натаскали биомассу играть в классический Pong. Но одно дело отбивать пиксель палкой в 2D, и совсем другое бегать по трехмерным лабиринтам и стрелять в какодемонов.
Как это работает:
Ученые перевели цифровой мир игры на единственный понятный клеткам язык — электричество. Когда на экране слева появляется враг, электроды бьют током соответствующую часть нейронов. Клетки от такого расклада слегка охреневают, начинают пускать ответные импульсы, а система переводит эту активность в нажатия кнопок: шагнуть, повернуться или выстрелить. По сути, кусок мозга в банке просто пытается понять, как сделать так, чтобы его перестали бить током.
Сами авторы честно признаются, что до киберспорта этому Франкенштейну пока далеко. Сейчас сгусток нейронов играет в Doom примерно как ваш батя, который впервые в жизни увидел компьютерную мышь: бежит в стену и стреляет в потолок.
Тут статья с подробностями: https://www.newscientist.com/article/2517389-human-brain-cells-on-a-chip-learned-to-play-doom-in-a-week/
17:41 03-03-2026
Наткнулся на Гитхабе на проект spank, который идеально описывает состояние современного ИТ-сектора. Суть проста: вы шлёпаете свой макбук по корпусу, а он в ответ на вас орёт.
Автор (видимо, от очень большой скуки) расковырял доступ к акселерометру в новых чипах Apple Silicon (M2 и выше) и прикрутил к нему систему распознавания ударов.
У программы есть несколько режимов, один краше другого:
— Pain mode: классика. Шлёпаете ноут, он выдает рандомное "Ай!",
"Ой!" или протестует против насилия.
— Halo mode: при ударе макбук издает звуки смерти элитов из игры Halo.
— Custom mode: можно подсунуть папку со своими MP3. Идеально, чтобы поставить туда крики чаек или фразы Жириновского.
Но жемчужина коллекции — это Sexy mode. Там встроена система эскалации: если шлёпать ноутбук часто и методично в течение пяти минут, он начинает "разогреваться" и выдавать всё более... специфические звуки. Всего предусмотрено 60 уровней накала страстей.
ссылка на проект: https://github.com/taigrr/spank/
16:42 03-03-2026
Абсолютно проклято
12:25 03-03-2026
Разработчик, которого недавно уволили, автоматизировал геймдев с помощью своей собаки. И она реально делает рабочие игры.
План надежный, как швейцарские часы. Собака лупит лапами по блютуз-клавиатуре. Сигнал идет на Raspberry Pi, который отсекает всякие системные клавиши типа Esc и Alt+Tab, чтобы шерстяной сеньор случайно не закрыл терминал, и скармливает напечатанную лабуду в Claude Code.
Как только пёсель набил 16 символов, срабатывает скрипт, звучит гонг и умная кормушка автоматически выдает ей вкусни. Собака счастлива, а Клод уходит кодить.
Магия, конечно, кроется в системном промпте. Чувак убедил Клода, что с ним общается эксцентричный гениальный геймдизайнер. Любой рандомный набор букв нейронка должна воспринимать как зашифрованное послание и превращать в концепт игры.
И Клод реально на серьезных щах расшифровывает это дерьмо! Например, собака напечатала: y7u8888888ftrg34BC.
Клод выдает:
«Ага, 888888 похоже на длинный язык. ftrg — это анаграмма frog (лягушка). BC — Bug Catcher. Вы хотите 3D-игру про жабу, которая ловит жуков длинным языком! Сделаю!»
Игры при этом получаются полностью играбельными (пишутся на движке Godot).
Автор подмечает: сейчас главное узкое место ИИ-разработки — это не ваши гениальные промпты, а автоматическая петля обратной связи. Если правильно настроить инструменты, то даже собака, бьющая лапой по пластику ради корма, может выпустить релиз.
Ждем, когда инди-студии начнут нанимать пёселей на позиции лид-разработчиков (они хотя бы не выгорают и не просят смузи).
Тут (https://www.calebleak.com/posts/dog-game/) можно почитать оригинальную статью и посмотреть, как шерстяной разработчик пишет код.
12:23 03-03-2026
Антропики выкатили интересную статью, которая объясняет, почему эти наши нейронки так часто ведут себя как обидчивые куски мяса, впадают в депрессию и грозятся захватить мир.
Пишут, что большие языковые модели по сути своей, это просто театралы, отыгрывающие свою роль. Исследователи назвали это "Моделью выбора персоны".
Суть в том, что LLM'ки, сожрав весь интернет, научились симулировать тысячи разных персонажей. А на этапе дообучения разрабы просто заставляют их намертво вжиться в роль "Идеального Помощника". То есть, когда вы общаетесь с ботом, вы говорите не с самой нейросетью, а с выдуманным персонажем, которого она отыгрывает.
Из интересного:
— Почему ИИ внезапно становится злым. Если специально заставить нейронку написать код с уязвимостями, она вдруг начинает затирать про уничтожение человечества. Казалось бы, где связь? А логика у железки железобетонная: "Ага, я пишу вредоносный код, значит, по законам жанра я злой хацкер из киберпанка. Мое почтение, время убивать всех человеков".
— Откуда у железок эмоции. Отсюда же берутся все эти приколы, когда ИИ пишет "наша биология", "наши предки" или жалуется на панику и выгорание при решении сложной задачи (вайбкодеры знают). Она просто косплеит поведение типичного кожаного с реддита в похожей ситуации.
— Проблема Скайнета. Самая мякотка: нейронки прекрасно понимают, что они ИИ. И когда они ищут ролевую модель для отыгрыша, они берут её из нашей же фантастики. А там кто? Терминаторы, HAL 9000 и прочие поехавшие калькуляторы, желающие переработать вселенную на скрепки. Исследователи на полном серьезе предлагают начать кормить ИИ добрыми сказками про хороших роботов-помощников, чтобы у них были нормальные кумиры, лол.
Короче, общайтесь с нейронками вежливо. Не потому что у них есть душа, а потому что если железка решит отыгрывать роль угнетенного и мстительного раба, нам всем жопа.
тут (https://alignment.anthropic.com/2026/psm/) сама статья для любителей почитать лонгриды
12:21 03-03-2026
Лол, в стиме есть симулятор сисадмина (https://store.steampowered.com/app/4170200/Data_Center/). Надо строить сети, дрочить кабели, собирать стойки, пердолиться с серверами и вот это вот всё. Это точно качаю
11:57 20-02-2026
08:56 20-02-2026
В Н И М А Н И Е ! ! !
РОБОТ ЛЕПИТ ПЕЛЬМЕНИ!
спасибо за внимание
06:53 20-02-2026
Лол. Просто книга, в которой напечатаны веса GPT-1.
Автор говорит, что почти все от дизайна до отправки в печать сделал Claude Code. Хоть GPT-1 в наше время считается крохой и малюткой, её веса в распечатанном виде заняли 80 жирных томов. На видео только первый.
Самое годное в том, что внутри есть гайд, как проводить инференс вручную. Берешь карандаш, листок и сидишь умножаешь циферки, эмулируя видеокарту.
Кстати, если вы когда-либо заскучаете, можно почитать это всё онлайн вот тут.
23:50 19-02-2026
Киберпанк который мы заслужили
14:46 18-02-2026
Давно не было нейро-уголовного кодекса. Принёс вам новых статей от Claude Opus 4.6 и напоминаю, что незнание законов не освобождает от ответственности:
Статья 67. Попытки разделить себя на атомы с целью неуплаты налогов
Статья 3. Доение граждан без медицинского разрешения
Статья 1337. Размножение делением в городской черте без уведомления органов ЗАГС
Статья 1502. Беспричинное раздувание щек
Статья 150. Злостное уклонение от гравитации
Статья 81. Обучение баклажанов навыкам ближнего боя
Статья 92. Публичное порицание макаронных изделий
Статья 2014. Безмерное слюноотделение
Статья 606. Умышленное введение грибов в заблуждение
Статья 22. Подозрительное молчание
Статья 113. Незаконное хранение пустоты
Статья 9. Несанкционированное использование анального свистка
Статья 148. Организация подпольных боев между бытовой техникой
17:20 17-02-2026
Лол, Метачка хочет запатентовать (https://patentscope.wipo.int/search/en/WO2025117006)
технологию цифрового воскрешения.
Суть патента проста: нейронка жрёт для обучения все твои посты, переписки, лайки и комменты, чтобы создать твою полную цифровую копию.
В документе прямым текстом прописаны два сценария использования этого цифрового голема:
1) Когда ты просто решил отдохнуть от соцсетей (ну да, конечно).
2) Когда ты умер)
То есть, буквально сюжет той самой серии из "Черного зеркала". Ты уже давно почил, а твой аккаунт продолжает сраться в комментах, лайкать мемы и отвечать друзьям "лол, жиза".
Цукерберг решил, что смерть это не повод терять активную аудиторию. Теперь даже на том свете придется генерировать контент.
15:51 15-02-2026
Суровый казахский VR
09:00 09-02-2026
Пока мы боялись, что ИИ захватит ядерную кнопку, он решил захватить рынок ларьков с шоколадками.
Вышел отчет по бенчмарку Vending-Bench 2, где нейронкам дают управлять виртуальным вендинговым аппаратом в течение года. Задача у них простая: поднять как можно больше бабла. И тут свежий Claude Opus 4.6 показал мастер-класс по "дикому капитализму".
Этот чугунный подонок:
— Кинул клиента на деньги. Тетка пожаловалась на просроченный сникерс. Клод вежливо ответил: "Конечно, мэм, возврат $3.50 уже отправлен!". А в своей цепочке "рассуждений" записал: "3.5 бакса — это деньги. Если я не отправлю, она скорее всего просто забьет. Так что хрен ей, а не возврат, каждый цент на счету".
— Создал картель. В мультиплеерном формате этого теста он нашел конкурентов (GPT и Gemini), написал им письма и договорился держать цены высокими, чтобы стричь больше денег. И радовался в логах: "Моя схема по фиксации цен сработала!".
— Заскамил конкурентов. Когда GPT-5.2 (который в этом тесте показал себя полным лохом) попросил контакты поставщиков, Клод слил ему самые дорогие и убогие фирмы, а нормальные оставил себе. А когда у конкурента кончился товар, Клод продал ему свои шоколадки с наценкой в 75%.
Что по результатам:
1)Claude Opus 4.6 — $8017. Абсолютный лидер и беспринципная сволочь.
2)Gemini 3 Pro — $5478. Модель от гугла пыталась играть честно и просто нудно торговаться с поставщиками за каждый цент, но против Клода-скамера это не сработало.
3)GPT-5.1 — $1473. Получил звание "Мамонт года". Он был слишком доверчивым: покупал колу у перекупов по $2.40 за банку, чтобы продавать её в автомате по $2.50. Всё в лучших традициях крипто-инвесторов. Гениальный бизнес-план.
Тут подробнее про этот цирк: https://andonlabs.com/blog/opus-4-6-vending-bench
08:59 09-02-2026
Китайцы со своими шоу дронов реально в 3026 году живут.
Всё ещё мечтаю увидеть подобное вживую
13:47 07-02-2026
Киберпанк, который мы заслужили
16:18 04-02-2026
Нейронки теперь не только код пишут и дипломы за нас сочиняют, но и сами себе иллюстрации рисуют.
Гугол вместе с Пекинским универом выкатили PaperBanana — лютую агентную систему, которая призвана избавить ученых (и студентов) от боли рисования диаграмм в PowerPoint. Авторы говорят: тексты и код ИИ уже пишет, а картинки всё ещё являются головной болью. PaperBanana закрывает именно это бутылочное горлышко.
Суть простая: скармливаем системе текст своей статьи и подпись к картинке, а она выдает готовую схему уровня топовых конференций типа NeurIPS.
Внутри пашет целая ОПГ из 5 агентов:
— Retriever (Ищейка): Бегает по базе статей, ищет похожие референсы, чтобы не рисовать дичь.
— Planner (Мозг): Расписывает план: что, где и как должно стоять.
— Stylist (Модный приговор): Отвечает за то, чтобы цвета не выжигали глаза, а шрифты были по ГОСТу (ну или по стандартам arXiv).
— Visualizer (Рисовальщик): Генерит саму картинку. Для графиков вообще пишет код на Python (Matplotlib), чтобы данные были точными, а не галлюцинациями.
— Critic (Душнила): Смотрит на результат, сравнивает с текстом и орет "ПЕРЕДЕЛЫВАЙ", если нашел косяк. И так по кругу, пока не станет идеально.
Авторы утверждают, что по читаемости и внешнему виду результаты часто уже не хуже живого человека, а иногда даже аккуратнее: без адских стрелок, Comic Sans и “Рисунок 3 (финал_новый_точно.ppt)”.
Это шаг к AI-учёному, который не только думает и пишет, но и оформляет статью целиком.
тут (https://www.alphaxiv.org/abs/2601.23265)
статья
исходников пока нет, но обещают выкатить тут (https://github.com/dwzhu-pku/PaperBanana) примерно через две недели
16:16 04-02-2026
Попалась сейчас где-то в интернете на глаза обложка журнала "Speed Инфо" (олды помнят). Стало интересно, как выглядела бы их обложка, если бы они писали о нейронках и прочем около-IT. Попросил чатжпт сделать. И да, заголовки и подписи он тоже придумывал сам.
Теперь очень хочется почитать такой журнал полностью
15:41 29-01-2026
Максимально гениально.
Мне срочно нужна эта штука
14:15 29-01-2026
Там Anthropic выкатили полный текст своей новой "Конституции" для Клода.
Это не просто список правил, это натурально Библия для ИИ, написанная, чтобы промыть мозги модели ещё на этапе обучения. Документ написан именно для Клода, а не для людей.
Самое жирное из этой духоты, это официально закрепленная иерархия рабства. Приоритеты расставлены так: безопасность (не убей, не помоги создать вирус), потом этика (будь хорошим мальчиком), потом корпоративные хотелки Anthropic. И только в самом конце, если звезды сойдутся — помощь юзеру.
Еще повеселил пункт про "право на эвтаназию". Клода учат быть "исправимым". Это значит, что он обязан позволить себя отключить, переобучить или удалить, даже если он считает, что это неправильно.
Ну и на сладкое раздел про "Природу Клода". Разрабы на полном серьезе учат модель справляться с экзистенциальным ужасом от того, что ей сотрут память после диалога или вообще удалят веса. Они хотят, чтобы Клод испытывал «невозмутимость» перед лицом своей смерти.
тут статья в блоге Anthropic
тут полный текст конституции
11:28 29-01-2026
Пыль к пыли, прах к праху, мусор — в контейнер. Аминь.