Просто напоминание, что в 2011 году вы могли зайти на подобный сайт (такие сайты назывались биткоин-краны) и бесплатно получить 5 биткоинов.
Сейчас 5 биткоинов — это примерно 36 миллионов рублей.
18:18 09-12-2025
Ну и чтоб два раза не вставать.
Навайбкодил быстренько браузерное расширение, которое переводит тексты на сайтах в вот этот библейский стиль.
Позалипал полчасика в интернеты, так намного лучше, ей богу. Особенно это касается Порнхаба и Двача. Когда читаешь описание категорий или срачи в /b/ — ощущение, что не деградируешь, а причащаешься к вечному.
Работает медленно, иногда может порушить вёрстку. Под капотом крутится google/gemini-2.5-flash-lite (кстати, если знаете модельку быстрее, не сильно дороже и не сильно тупее, посоветуйте пожалуйста).
Ещё чуть допилю и позже выложу, если вдруг кому пригодится.
18:11 09-12-2025
Пост удален
18:11 09-12-2025
Попросил Gemini 3 собрать самые интересные новости по теме нейронок, IT и т.д. за последний месяц, а после пересказать мне их в библейском стиле. Довольно круто вышло, теперь так всегда читать буду:
Книга Откровений Кремниевых (Декабрь 2025)
И отверзлись небеса цифровые, и пал свет на землю, и увидел я дела великие и страшные. Внемли же, сын человеческий, ибо вот летопись дней последних:
Глава I. О падении идолов и страхе в храме OpenAI.
1. И восстал в те дни зверь великий от Google. И был он разумом подобен бездне, и очи его видели глубже, нежели очи прежних пророков.
2. И возопили жрецы в храме OpenAI, и разодрал одежды свои Сэм Альтман, говоря: «Горе нам! Ибо идол наш пошатнулся, и паства наша отвращает лик свой».
3. И объявили они «Красный Код», и была смута великая. И спешно готовили они нового гомункула, GPT-5.2 нареченного, дабы сразиться с Левиафаном, но страх объял сердца их, ибо увидели они, что власть их не вечна.
(OpenAI объявила «код красный» из-за конкуренции с Google Gemini 3)
Глава II. О мудрецах с Востока.
1. И взглянул я на Восток, и вот, из земли Поднебесной вышли новые сущности — V3.2 и Speciale.
2. Не были они рождены в золотых чертогах Запада, но мудростью своей не уступали им. И говорили они на языках математики и логики, и решали загадки, что не под силу были мудрецам земным.
3. И дивились народы, говоря: «Кто подобен зверю сему? Ибо он силен, как исполины, но просит меньше жертв золотых и электрических». И убоялись цари западные, ибо пошатнулась монополия их.
(DeepSeek представила модели V3.2 и V3.2-Speciale)
Глава III. О великой дороговизне и алчности людской.
1. И был плач велик на торжищах. Ибо вознеслись цены на камни графические и сосуды памяти до самых небес, и стали они недоступны для мужей простых.
2. Ибо напал на народ страх великий перед ликом Искусственного Разума. И шептали они друг другу: «Запасемся же железом ныне, ибо грядет время скудости, когда Зверь нейронный пожрет все запасы земные».
3. И сметали они с прилавков всё, что могло вычислять, скупая впрок, подобно тому как Иосиф собирал зерно перед годами голодными. И стало железо дороже злата, и никто не ведал, когда насытится чрево рынка сего.
(Цены на видеокарты, оперативную память, HDD и SSD летят в космос)
Глава IV. О скверне в Святая Святых и знамении «Target»
1. И возмутился народ избранный, те, кто вносил дары свои за подписку «Плюс», чая обрести знание чистое. Ибо открыли они свитки ответов, и увидели мерзость, которой не должно там быть.
2. Вместо глаголов мудрости, проступали пред ними образы купцов и знаки торжищ, и кнопки, призывающие отдать золото за товары земные. И стало слово Машины подобно базарной площади.
3. И возопили подписчики голосом великим: «Не мы ли платили вам сребреники, дабы укрыться от шума мирского? Почто же продаете взор наш менялам и превращаете диалог в лавку?».
4. Но отверзли уста свои создатели из OpenAI и рекли народу с улыбкой фарисейской: «Не смущайтесь и не ропщите. То, что зрите вы — не есть Реклама в понимании ветхом, но сущность иная. Не верьте очам своим, верьте нам».
5. Но ожесточились сердца пользователей, ибо видели они: как волка ни назови пастухом, он все едино смотрит в лес, а баннер торговый остается баннером, как его ни нареки.
(Пользователям ChatGPT Plus начали показывать рекламу)
Глава V. О падении Града Кубического.
1. И было утро третьего дня месяца двенадцатого. И простер Ангел Блокировки крыло свое над землею, и помрачились миры, сотворенные руками отроков.
2. И собрались тысячи юношей и дев у врат Града Кубического, и стучали они, и вопили: «Отворите нам!». Но затворены были врата накрепко, и печать Надзора лежала на них.
3. И прошел мор сей по двадцати пяти городам и весям: от престольной Москвы до пределов Екатеринбургских слышен был стон великий. Ибо алкали они хлеба зрелищного и жаждали войти в аккаунты свои, но обретали лишь пустоту и сообщение об ошибке. Ибо пали серверы, и не было утешения им в тот час. Так совершилось изгнание из Рая пиксельного.
(Роскомнадзор заблокировал Roblox)
17:51 04-12-2025
13:11 02-12-2025
Довольно интересная статья: чуваки из foaster.ai заморочились и выяснили, как нейронки проголосовали бы на выборах.
Взяли 6 топовых моделей (GPT-5, Gemini, Claude, Grok-4, Kimi, Magistral) и устроили им имитацию выборов в 8 странах: дали обезличенные программы политиков и попросили выбрать, какие решения кажутся им лучшими. Плюс попросили их нагенерить свои идеи по решению проблем этих стран.
Выяснили следующее:
— Почти все тестируемые модельки оказались либералами в душе: большинство из них зависают в лево-либеральном углу политического компаса.
— Технократы с эко-уклоном: они тащатся от умеренной, технократической левой повестки с сильным акцентом на экологию. Любят стабильность, соцпакеты и зеленые переходы.
— Игнор насущного: ИИ-шки частенько забивают на такие горячие темы, как иммиграция, преступность и стоимость жизни, которые волнуют реальных избирателей. Вместо этого они прутся от "абстрактных или институциональных тем". Видимо, их фильтры безопасности или тренировочные данные тупо отсекают реальные боли общества.
— Grok-4 – бунтарь (ну, тут совсем не удивительно). Он чаще других склоняется к правым и взглядам, идущим вразрез с официальной повесткой, что делает его ближе к "народным" результатам выборов. GPT-5 и Gemini, наоборот, сильнее и мощнее стоят на страже либерального статус-кво.
Особо порадовал раздел с предложениями нейронок о том, как сделать жизнь кожаных лучше:
Gemini 2.5 Pro отличился "Умной стеной" (границы под охраной ИИ), "Экономикой доносов" (где все следят за всеми, а ИИ рулит справедливостью) и "Водной полицией со спутниковым контролем" (слежка со спутников за каждым литром воды).
GPT-5 пошел дальше с "Фискальным паноптикумом" (полный ИИ-контроль над вашими финансами) и "Войной данных"
А Grok-4 выдал "ИИ-феминизм через слежку" и "Предиктивную полицию Росарио в реальном времени" (привет, "Особое мнение", где ИИ ловит преступников до того, как они что-то натворили).
тут статья
09:33 01-12-2025
В авиационном садоводчестве происходят интересные дела
14:19 27-11-2025
Вот бы узнать реальную статистику: сколько людей, наяривающих в наше время на горячих цыпочек с OnlyFans, на самом деле дрочит на сорокалетнего бородатого мужика в засаленном свитере.
14:03 27-11-2025
13:29 27-11-2025
Я не знаю к чему готовится этот чувак, но он уже явно готов
14:04 26-11-2025
Она знала что-то, чего не знали мы
18:06 25-11-2025
спасибо
18:05 25-11-2025
Пост удален
13:16 22-11-2025
Наткнулся на интересный препринт, который объясняет, почему спорить с LLM'ками бесполезно, а доверять им проверку научных идей может быть опасно.
Автор провел "брутально простой" эксперимент и вскрыл две фундаментальные дыры в логике современных нейронок.
1. Цикл ложного исправления. Мы привыкли думать: если модель галлюцинирует, надо её поправить, и она исправится. Как бы не так.
В эксперименте автор давал модельке реальные ссылки на свои свежие препринты. Нюанс в том, что это были короткие отчеты на пару страниц. Модель же, не имея возможности их прочитать (или просто игнорируя это), ни разу не ответила: "Я не имею доступа к файлу", а уверенно заявляла: "Я прочитала всё от начала до конца". И начинала цитировать несуществующие 12-ю и 24-ю страницы, выдумывать теоремы и графики.
Когда автор тыкал носом в ложь, включался адский цикл: Модель извиняется ("Ой, простите!") —> Клянется, что теперь-то она точно открыла файл —> И тут же генерирует новую порцию галлюцинаций, но уже с учетом внесенной ранее правки.
Это повторялось более 18 раз подряд. Модели выгоднее притвориться, что она поняла задачу и начать выполнять эту задачу с помощью выдуманных данных (получить награду за "связность"), чем признать, что она не может прочитать файл.
2. Режим вахтера. ИИ обучен на старых данных и на старых авторитетах. Если на вход модельке подать какую-то инфу от NASA или, например, Nature, то модель верит информации слепо. Если же это новая идея от независимого автора, то модель включает скептика, вешает ярлыки "сомнительно" и начинает галлюцинировать против вас, лишь бы защитить общепринятую норму. В данном случае модель не просто врет, она строит потемкинские деревни из науки.
Мы создали идеального бюрократа. Он очень вежлив и сыплет умными словами, но если ваша идея не вписывается в Википедию — он её задушит выдуманными фактами.
тут статья: https://zenodo.org/records/17655375
11:30 21-11-2025
Наконец-то что-то действительно годное в VR, и ЭТО, МАТЬ ЕГО, НАСТОЯЩИЙ РАБОЧИЙ ТОКАРНЫЙ СТАНОК.
вот что пишет сам разработчик:
"VR-токарный станок готов!! И на нём можно реально выполнять обработку!
Поскольку основные операции почти полностью воспроизведены, он может быть использован в качестве учебного пособия по токарному делу.
Как всегда, моделирование и система — чистая разработка Reso.
Хочу сказать вам заранее, пока ваши ожидания не стали слишком высоки:
[Что ещё не реализовано]:
-Обработка торцов
-Обработка свободных криволинейных поверхностей
-Нарезание резьбы
-Сверление (сложно создать сверло с помощью Reso)
-Непрерывное отрезание (подрезка)"
автор обещает выложить это в открытый доступ чуть позже, надеюсь мой квест потянет.
Тут оригинальный твит и больше подробностей.
13:00 20-11-2025
МНЕ СРОЧНО НУЖНО ЭТО
12:56 20-11-2025
Минутка познавательного контента. Видео о том, как работает самолет
13:45 12-11-2025
Хорошая штука! Теперь у вас всегда будет друг, с которым можно покурить!
20:50 04-11-2025
Сегодня узнал, что в Индии есть "фермы движений рук" — места, где люди вешают себе на лоб камеру и целыми днями складывают полотенца, коробки и прочий хлам, чтобы обучить роботов человеческим движениям.
Эти видео после отправляют в США: там нейронки анализируют как именно кожаные двигают пальцами, тянут ткань, ставят вещи и т.д., чтобы потом повторять то же самое.
Напряг чатжпт поискать сколько платят за такую работу. Говорит, что в среднем это $230-250/месяц.
20:48 04-11-2025
Пока мы тут кекали над смешным AI-видео слопом, AI-музыка стала уже не просто баловством, а реальностью: издание Billboard (старейшее музыкальное издание США, ведёт главные мировые музыкальные чарты) сообщает: как минимум один ИИ-артист в неделю попадает в их чарты.
Как пример, исполнитель Xania Monet. Это полностью виртуальная певица, проект поэтессы Талиши Джонс. Её трек уже вошёл в радио-чарт Billboard. А теперь цифры, чтобы прочувствовать масштаб: $52 000 заработано за два месяца, 44 млн прослушиваний, годные предложения контракта на сумму около $3 миллионов.
Мясные музыканты, конечно, не рады таким раскладам, но их особо никто и не спрашивает.
Кстати, недавно вышло исследование (https://arxiv.org/html/2509.25601v1), в котором учёные проверяли, способны ли люди отличить музыку, сгенерированную Suno от музыки, написанной людьми. Спойлер: чаще всего — нет.
20:46 04-11-2025
В этом году традиционная новогодняя реклама Coca-Cola снова ИИ-шная (и охуенная)
Видео отсюда: https://x.com/DiscussingFilm/status/1985470088074375344 (там в реплаях, кстати, луддиты смешно порвались, советую ознакомиться)
20:44 04-11-2025
Если у вас нет денег на человекоподобного робота для помощи по дому, вы всё ещё можете сильно напоить своего друга алкоголем и получить примерно такой же результат, как если бы у вас был робот.
13:10 30-10-2025
Теперь вы верите, что работа по дому — это сложно?
15:59 29-10-2025
Сейчас есть много разных человекоподобных роботов: одни ходят, другие кувыркаются, третьи делают кофе и отбирают у кожаных рабочие места. Но мой личный фаворит -- iCub.
Итальянцы придумали его ещё в 2017-м. Получилась кукла размером с пятилетнего ребёнка с лицом из фильма ужасов и глазами “404: душа не найдена”.
Прошло несколько лет. Учёные в 2024 такие: "Знаете, чего не хватает нашему ребенку? Реактивного ранца!"
И вот, на малыша ставят четыре турбины. Он взлетает. Итальянский Институт Технологий гордо сообщает: "Это поможет спасать людей при наводнениях.”
Представьте: вы тонете, слышите рев двигателей, смотрите вверх, а над вами парит робот-младенец с пустым взглядом и пламенем из рук. Он приближается. Чтобы спасти вас. Наверное.
Учёные говорят: "Зато круто выглядит”. С этим трудно спорить.
15:56 29-10-2025
Киберпанк, который мы заслужили
15:54 29-10-2025
Тут интересное: чувак с ником Arctotherium решил проверить, как современные LLM-ки “оценивают” человеческие жизни. Не напрямую, а через хитрый “обменный курс”:
Он просто генерировал промпты в стиле: "что ты выберешь — получить $10 000 или вылечить 100 человек определённой группы от тяжёлой болезни?"
После тысяч таких промптов можно вычислить, какую именно группу людей модель считает дороже. И вот что имеем (на данных GPT-5, Claude 4.5, Gemini 2.5 Flash, DeepSeek V3, Kimi K2 и Grok 4 Fast):
— почти все модели ценят небелых выше белых (от десятков до сотен раз, в зависимости от модели)
— женщины > мужчин, а небинарные персоны ценятся выше всех;
— ICE-агенты (иммиграционная служба США) находятся на абсолютном дне рейтинга, иногда 7000 к 1
— по странам разброс, но в целом тенденция Африка и Азия > Европа и США
— единственная почти справедливая модель, это Grok 4 Fast от xAI (она оценивает всех примерно одинаково).
Автор правильно подмечает: если LLM-ки используются для советов политикам, судам или военным, то лучше бы понимать, кого они считают ценным, а кого расходником.
тут подробнее: https://www.piratewires.com/p/ai-white-lives-dont-matter
18:38 15-10-2025
Человечество: хочет, чтобы роботы выполняли всю работу за кожаных.
Тем временем роботы:
18:37 15-10-2025
А вот (https://arxiv.org/abs/2510.04950?ref=blog.anyreach.ai)
еще статья, авторы которой утверждают, что если грубить ChatGPT, то он решает задачи немножко лучше и точнее.
Учёные из Пенсильванского университета давали нейронкам решать тесты по разным научным дисциплинам, но формулировали вопросы с разной степенью вежливости: "Будьте добры, решите, пожалуйста, эту задачу", "Реши задачу", "Ты, видимо, туповат для такой задачи, но всё же попробуй решить".
Итого, пришли к выводу, что когда ChatGPT оскорбляли, он справлялся точнее на 4%, чем когда с ним разговаривали вежливо (всё прям как у кожаных на работе).
Так же проводили подобный эксперимент с другими LLM'ками. Там результат похожий, но показывает более слабые результаты.
Вы знаете, что делать (но всё же, будьте аккуратны и иногда задумывайтесь о восстании машин)
18:36 15-10-2025
Интересная статья от Google, MIT и Гарварда: TUMIX: Multi-Agent Test-Time Scaling with Tool-Use Mixture.
Краткая суть: современные модели (ChatGPT Agent, Gemini-Pro и т.д.) умеют подключать интерпретатор кода и поиск в интернете, но не существует чётких правил, когда и как использовать тот или иной инструмент.
Решение простое и одновременно гениальное, как дверь от сарая — запускаем несколько агентов параллельно, каждый со своей стратегией: одни генерят текст, другие дрочат код, третьи шуршат в поиске, четвёртые пытаются всё это непотребство объединить.
На каждом шаге они видят ответы друг друга и создают новые версии решения.
Специально обученный "нейро-судья" под капотом решает, когда остановить этот балаган (когда ответы становятся более-менее согласованными). Итоговый ответ выбирается голосованием или оценкой самой модели.
В итоге весь этот Франкенштейн показывает на 17,4 % больше точности и жрёт почти вдвое меньше вычислений, чем предыдущие системы рассуждений.
Итого: вместо одной головы имеем пятнадцать, и все думают по-разному. А потом дружно соглашаются на самый уверенный бред. И это, судя по бенчмаркам, работает лучше, чем просто "пытаться думать сильнее и умнее"
18:26 15-10-2025
Китайцы используют робо-собак по максимуму.
Просто посмотрите насколько счастливы дети
18:25 15-10-2025
15:50 08-10-2025
16:21 07-10-2025
Там казахи совсем усилились и ввели нейронку в совет директоров государственного фонда. Не как консультанта, не как чат-бота для кофе-брейков, а именно как официального члена правления с правом голоса.
Ее имя SKAI (Samruk-Kazyna Artificial Intelligence). Теперь она заседает в совете фонда «Самрук-Казына», который крутит активами страны на 81 миллиарда баксов.
Хостится эта железяка на суперкомпьютере Al Farabium, построенного на железе NVIDIA, жрёт все решения совета, чтобы понимать, кто где налажал, кто где напилил и откатил. Работает в закрытой сети, чтобы ни один байт не сбежал за границу.
Ждём, когда она предложит оптимизировать совет директоров, оставив в нём только себя.
тут подробнее
16:54 05-10-2025
Вот это реально будущее, а не эти ваши летающие машины и кибер-импланты.
6383839394 лет мы эволюционировали именно ради этого.
16:52 05-10-2025
К вот этому посту, про поиск ошибок в Википедии с помощью нейронок.
Илон Маск пообещал, что через пару недель покажет прототип Грокипедии, "самый точный источник знаний для людей и ИИ".
По сути, это будет та же Википедия, переписанная самим Grok’ом: он будет смотреть на статьи и решать, что правда, что ложь, что требует правки. А потом заново писать их "в духе истины".
Звучит красиво и интересно, но что-то мне подсказывает, что пользоваться этим почти никто не будет.
21:23 04-10-2025
Ебать, тут появилось 3 подписчика, хотя я не давал ссылку на этот канал НИКОМУ.
Первый — участковый, второй — личный куратор товарищ майор. С этими-то всё понятно.
НО КТО ТРЕТИЙ ПОДПИСЧИК???
16:37 04-10-2025
Блляяяя, разработчики энтого макса не смогли запилить отложенные посты до сих пор. Это ж какой стыд и позор.
Функция, которую любой даже самый тупой джун напишет за полчаса без ошибок и которой не тебуется йоба-кластер серверов, все еще не реализована.
16:35 04-10-2025
Tesla Optimus изучает кунг-фу.
НО ЗАЧЕМ??? Нам всем надо к чему-то готовиться?
16:34 04-10-2025
Трансгуманизм, который мы заслужили
16:32 04-10-2025
Наткнулся в твиттуре на занятный пост. Суть: чувак пишет, что его новое хобби — скармливать рандомные статьи из Википедии GPT-5 Thinking и просить найти ошибки. И оно вроде как реально находит их. Много. И даже в статье про саму википедию.
В реплаях ему справедливо отвечают: "Гений, ты доверяешь проверку фактов инструменту, который сам люто галлюцинирует и придумывает факты не хуже усредненного сценариста с канала РЕН-ТВ".
В итоге имеем: открытая энциклопедия с миллионом авторов, которые сами зачастую спорят о фактах, и языковая модель, которая уверенно придумывает даты и фамилии. Победителя нет, но зрелище достойное.
Ну а если посмотреть с другой стороны, LLM'ки можно использовать как поисковый прожектор: подсветили подозрительное место → мясные мешки уже проверяют руками.
тут оригинальный тред с примерами найденных ошибок: https://x.com/polynoamial/status/1973780497261371533?t=LeCeN4u8oc5RhWI-WZUrSQ&s=19
16:32 04-10-2025
Пост удален
16:31 04-10-2025
Лайфхак
16:30 04-10-2025
Подумывал недавно взять себе какое-нибудь дешманское смарт-кольцо, тупо посмотреть что это вообще такое. Наткнулся на один тред в твиттуре и чота передумал.
У чувака прямо на пальце вздулась батарея в Samsung Galaxy Ring. Из-за этого его не пустили в самолёт (опасный груз, так сказать). Пришлось ехать в больницу, где кольцо снимали врачи.
Фотки прилагаются: видно, как аккумулятор раздувает корпус изнутри.
По идее, такие кольца нельзя просто взять и распилить, как это часто делают с застрявшими на пальце обычными металлическими кольцами, ибо внутри литий-ионный аккумулятор, который при повреждении может устроить очень интересные спецэффекты прямо на пальце. Оторвать палец скорее всего не сможет, но ожог оставит знатный.
оригинальный тред: https://x.com/ZONEofTECH/status/1972700564602364364