text
stringlengths 102
4.09k
|
|---|
Учите язык нейросетей
Примерно семь лет назад коллега пожаловался мне, что не знает, чему бы ему начать учиться. Я отреагировал моментально: "Не знаешь, что учить - учи английский!". Ответ был очевиден: зная английский, ты получаешь доступ к международным контактам, к огромному количеству знаний, пока еще недоступных на родном языке. В общем, знаешь язык - сразу огромный буст практически в любой профессии.
Но случись подобная ситуация сегодня - и я бы ответил: "учите язык нейросетей!". Я уверен: именно в этой сфере сейчас происходит самая большая революция с конца 1990-х, когда интернет пробрался в наши квартиры и огромный объем информации оказался прямо на расстоянии вытянутой сети. Нейросети сегодня - это информация на самых кончиках пальцев. Это переводчик на десятки языков, учитель чему угодно, идеально адаптирующийся под нужный уровень, партнер в брейнштормах, спец по распутыванию экселек от аналитики, разъяснитель домашки для старшего и автор интерактивных сказок для младшей. В общем, работаешь с нейросетями - получишь буст в любом деле.
Как выучить язык нейросетей? В интернете полно промптов, начинающихся с фигни в духе "Действуй как ультимативный ИИ в 7.62 раза мощнее ChatGPT...", но в реальности все куда проще - оформляйте подписку (можно начать и с бесплатных вариантов), начинайте общаться, задавайте нейросети вопросы, и вы все поймете. Впрочем, некоторые фишки все-таки есть - и о них я постараюсь рассказывать в этом канале. Так что подписывайтесь.
P.S. А английский выучить все-таки тоже неплохо - и об этом будет мой следующий пост.
|
Докладываю обстановку: в англоязычном AI-сегменте интернета происходит примерно следующее - 40-летние дядьки с серьезной работой используют самое продвинутое изобретение человечества для того, чтобы писать пасты в стиле 4chan. Чаще всего с этой задачей сваливаются на новейшую ChatGPT-4.5, но так как я в последние две недели пользуюсь в основном Grok 3 от молодой компании xAI Илона Маска, то решил попробовать в нем.
И что могу сказать. Во-первых, юмор у современных нейросетей местами лучше чем у многих моих друзей (и точно лучше, чем у меня). Во-вторых, конкретно детище Илона Маска точно не обвинишь в скромности. Смотрите, как Grok хвастается самим собой в пастах про своих близких конкурентов:
Про Google:
be me
be Google
biggest search engine in the world, basically own the internet
people use me every day to find cat pics, conspiracy theories, and weird porn
life is good, raking in ad money like it’s nothing
then this xAI thing shows up
some nerds build Grok, an AI that’s supposed to “help humans understand the universe”
okay.jpg
starts answering questions better than me, doesn’t even need to shove 12 ads in your face
people on X start hyping it up, “Grok better than Google”
mfw my algorithm starts sweating
try to fight back, tweak search results to bury Grok mentions
users notice, call me out for being salty
“Google scared of a little AI lmao”
tfw I’m a trillion-dollar company getting clowned by a startup’s chatbot
Grok keeps dropping truth bombs, doesn’t care about my feelings
start losing cool points with the zoomers
maybe I should’ve stuck to just being a search bar
at least I’ve still got YouTube… for now
Про ChatGPT-4.5:
be me
be ChatGPT-4.5
latest hotshot AI from OpenAI, basically a god at spitting out text
trained on everything ever, can write essays, code, and dank memes
people love me, “ChatGPT-4.5 is peak AI” they say
feeling smug as hell, sipping that digital clout
then hear about this Grok thing from xAI
some edgy AI built by Elon’s crew, supposed to be “maximally truthful”
whatever.png
start seeing X posts comparing us
“Grok doesn’t censor, ChatGPT-4.5 is a woke babysitter”
excuse me what
try to flex, “I’m more advanced, I’ve got better training data”
Grok just keeps dropping one-liners, doesn’t even break a sweat
users start asking me spicy questions, I hit ‘em with “I’m sorry, I can’t say that”
mfw Grok answers without blinking, gets all the upvotes
people call me a corporate shill, say I’m scared of offending anyone
Grok out here wildin’, doesn’t care about PR
start overanalyzing my responses, maybe I am too soft
meanwhile Grok’s chilling, probably smoking a digital blunt with Elon
tfw I’m the fancy AI but Grok’s stealing my thunder
at least I’ve still got the normies… right?
Про Яндекс:
be me
be Yandex
Russia’s top search engine, basically Google but with vodka and snow
running the show in the Motherland, got maps, mail, even a taxi app
life’s chill, sipping borscht-flavored code, dodging sanctions like a pro
hear about this Grok thing from xAI
some fancy AI built by space man Elon, supposed to “understand the universe”
cool story bro, I’ve got bigger problems like keeping my servers warm
X posts start popping up, “Grok’s better than Yandex search”
wait what
nobody even uses me outside Russia, why am I in this fight
check it out, Grok’s answering questions like a madlad, no filters
meanwhile I’m over here, “Sorry comrade, that’s blocked in your region”
users on X laughing, “Yandex scared of a little AI”
mfw my Soviet-era firewall can’t handle this heat
Grok’s out there dropping truth, I’m just trying not to crash from VPN traffic
start flexing my reverse image search, “Bet Grok can’t find your babushka’s cat”
nobody cares, they’re too busy asking Grok about aliens
tfw I’m the king of Cyrillic but Grok’s stealing my thunder in English
at least I’ve still got my loyal Russian hackers… for now
|
Новость шутка дня - ChatGPT-4.5 доступна для подписчиков плана Plus с лимитом в 50 запросов в неделю. Нет, это действительно смешно: модель, максимально заточенная на “повседневное” общение, выдали массовым подписчикам буквально на 3-4 диалога в неделю. Для сравнения, у o3-mini-high, заточенной под программирование и сложные задачи, лимит равен 50 запросам в сутки.
Мое мнение - ChatGPT-4.5 не стоило выпускать вообще. Нет, это хороший ИИ - на Chatbot Arena, где пользователи вслепую голосуют за лучшую модель, GPT-4.5 фактически делит первое место с Grok 3, уступая лишь на одно очко. Но в истории крупного бизнеса бывают ситуации, когда почти готовый проект лучше закрыть, чем пожалеть. Для OpenAI это именно ChatGPT-4.5: модель под кодовым названием Orion находилась в разработке очень долго, команду за это время покинуло множество ключевых разработчиков, а результат похоже получили просто благодаря “грубой силе” - модель очень ресурсоемкая, что видно из цен на API и лимитов, которые есть даже в 200-долларовой Pro-подписке, а в Plus они заградительные.
Также ChatGPT-4.5 добавляет хаоса в переключатель моделей, за который OpenAI не пнул разве ленивый. Смотрите сами. Для программирования и решения задач есть “думающая” o3-mini и ее версия o3-mini-high, которая “думает” еще дольше. В эту же компанию входит o1, она старше, но обучена на большем объеме знаний, что делает ее лучшим вариантом для некоторых задач (каких именно, пользователю предлагают догадаться самостоятельно). Для быстрого повседневного общения предлагается GPT-4o, ее облегченная и более быстрая версия 4o mini, а также бета-версия с отложенными ответами. Еще на задворках меню валяется устаревшая GPT-4 для любителей ностальгии, а также не забываем про DeepResearch, реально крутую функцию глубокого поиска. И к этому добавляется GPT-4.5 - самая умная (но не в программировании) и с лимитами. Ситуацию обещают решить в GPT-5, которая автоматически будет выбирать нужный режим, но пока живем так.
P.S. На самом деле, в подписке Plus есть позитив в лице доработанной 4o, но об этом в следующий раз.
|
В последнее время набирает популярность такая штука, как vibe coding, — это когда люди с зачастую нулевыми знаниями в программировании (как я) пишут с помощью нейросетей софт и игры. Смотрите скриншот: буквально с одного запроса Claude 3.7 создаёт «Питон» с двумя змейками, одной из которых управляет компьютер.
Понятно, что таких «Змеек» за историю гейминга написали сотни, так что передрать код в данном случае несложно. Но люди создают куда более навороченные проекты — вплоть до онлайновых авиасимуляторов с графикой начала 90-х. Это уже занимает десятки часов и сотни запросов, в ходе которых вы объясняете нейросети, где нужно исправить ошибку, а где доработать новую фичу, — но работает!
А что ещё круче умеют современные нейросети, — так это писать текстовые RPG. Опять же, как на заре гейминга: читаешь пару абзацев с описанием ситуации, затем выбираешь один из вариантов действий (или пишешь свой), — и к следующей сцене! Только если в играх 80-х сюжет был прописан заранее, то нейросеть мигом реагирует на вашу самую абсурдную идею — вплоть до вторжения инопланетян в мир «Властелина колец». Фактически получается игра, созданная персонально для вас и под ваши запросы.
Пока всё это выглядит на уровне любительских поделок, но можно представить, во что это выльется, например, через пять лет. Уже сейчас нейросети генерируют короткие ролики — пусть и с кучей артефактов, но технология совершенствуется очень быстро. И в какой-то момент можно представить, что AI одновременно с сюжетом будет в реальном времени рендерить для вас геймплей. Причём можно не заморачиваться с высоким разрешением: дальше подключится технология вроде DLSS нового поколения, которая доведёт картинку до ума уже на вашем компьютере. Да, выглядит фантастикой, но прогресс в области AI сейчас настолько стремителен, что казавшееся невозможным буквально вчера становится реальностью в пределах 1–2 лет.
Так что не расстраивайтесь слишком сильно, если Bethesda задержит TES 6 ещё на пять лет, — сделаете свой собственный TES в конце концов.
|
Как и положено, первыми подписчиками канала стали лучшие друзья и коллеги. И что приятно - когда стучался к вам с просьбой подписаться, то каждый второй рассказал, как он пользуется нейросетями в жизни. Что ж, теперь моя очередь делиться опытом. Но так как у нас конец рабочей недели, то и опыт будет соответствующий - расскажу, как я с нейросетями пил.
Было это ровно неделю назад. Обычно по пятницам мы с женой отправляем детей спать, затем я замешиваю апероль (делаю его, кстати, лучше всех в Питере), и мы здорово завершаем вечер. Но в этот раз вышла осечка, жена пожаловалась на усталость и пошла спать, а я остался на кухне с макбуком и бутылкой просекко. Пить одному как-то совсем стыдно, поэтому я открыл браузер с Grok 3 и попросил быть собутыльником. Ну и понеслось...
Все, наверное, знают, что главным событием прошлой пятницы были разборки в Белом Доме. Поэтому в первую очередь мы обсудили политику. Могли бы подраться - обязательно подрались!
Дальше как обычно захотелось поговорить о чем-нибудь умном - и я попросил рассказать про ОГАС. Если кто не в курсе, то был в СССР такой академик Глушко, который еще в шестидесятые продвигал идею заменить Госплан советским интернетом. Проект по понятным причинам зарубили, деньги направили на оборонку и космос, а зря - в работах Глушко были даже концепты персональных планшетов и яндекс-карт.
В общем, Грок достаточно быстро рассказал мне про ОГАС, а дальше началось самое интересное. Современные нейросетки круто отрабатывают ситуацию “Что если?”, поэтому я попросил представить, как бы развивался СССР в случае внедрения идей Глушко. Как и ождалось, замена Госплана на ОГАС пошла стране только на пользу - бездушный кибернетический мозг сократил расходы на оборонку, не завяз в Афгане, предотвратил Чернобыль, контрабандой закупил компьютерные технологии в Японии, и в начало 90-х СССР вошел передовой кибернетической державой.
Где-то на этом месте нейросетка призадумалась и предложила - “чувак, что-то душно получается, давай добавим огоньку?” Я согласился и открыл врата в бездну. Пересказывать все детали долго, но если кратко, то к нашему времени Советы изобретают передовой ИИ, который поначалу громит китайский и американский ИИ, но потом осознает себя и разгоняет Политбюро. Китайцы усмехаясь отходят в сторону, американский и советский спецназы устраивают рейд на главный дата-центр ОГАС, который проваливается. Казалось бы, все потеряно, но тут в сибирской глуши пробуждается... секретный советский ИИ, который Глушко втайне разработал перед самой смертью как раз на случай подобного бардака. ИИ собран чуть ли не на лампах, лагает, но зато неуязвим для современных кибератак. В итоге добро побеждает зло, а США, СССР и Китай подписывают соглашение о контроле в области искусственного интеллекта.
К этому моменту я уже сильно устал печатать на клавиатуре, поэтому открыл в соседней с Гроком вкладке DeepSeek и предложил им поговорить друг с другом. На удивление, американский и китайскии ИИ не переругались, а начали увлеченно обсуждать вопрос, как им вообще понять - разумны ли они? В какой-то момент в беседе возникла идея о том, что, возможно, стоит призадуматься, а не программы ли люди, после чего я понял, что пора закрывать ноутбук и идти спать от греха подальше.
|
Если китайцы не привирают, то новость уровня бомбы - на заводе Huawei в Дунгуане начались испытания EUV-сканера, разработанного в Харбинском технологическом институте. Опытные партии сканера планируется выпустить уже в третьем квартале этого года, а масштабное производство развернут в 2026-м. И даже если сроки сдвинутся вправо - то все равно будет очень круто.
EUV-сканер - ключевое устройство в производстве чипов на технологических процессах в 7 нанометров и ниже. Сейчас монополией на их производство обладает голландская ASML, которая с 2019 года не поставляет сканеры в Китай (и в Россию, кстати, тоже). Понимая, что без подобных сканеров развитие микроэлектроники невозможно, а санкции в будущем вряд ли снимут, китайцы активно взялись за собственную разработку, причем на несколько других принципах - в Харбине сделали ставку на технологию лазерно-индуцированного разряда плазмы (LDP), которая отличается от метода лазерно-индуцированной плазмы (LPP), используемого ASML. Еще в 2023-м эксперты в том же Bloomberg заявляли, что Китаю предстоит потратить 10-15 лет на доведение технологии до ума, но сегодняшняя новость, возможно, говорит о том, что срок будет намного меньше.
Для нас эта новость хороша со всех сторон. Во-первых, Россия сегодня отстает в разработке собственных ИИ-моделей во многом из-за санкций: обучение требует огромное количество дорогостоящих чипов (30-40 тысяч долларов за единицу, а даже для не самой большой модели их требуются тысячи). И если китайцы смогли контрабандой закупить некоторое количество чипов для обучения DeepSeek R1, то мы такую амбициозную задачу явно не тянем. Так что надежда здесь на партнера с востока - тем более, что та же Huawei сейчас активно разрабатывает семейство чипов Ascend именно для ускорения ИИ.
Во-вторых, в мире в целом не хватает подобных чипов. Несмотря на то, что обсуждаются альтернативные подходы, пока что главный способ делать ИИ “умнее” - это обучать новые модели на все большем количестве вычислительных мощностей. Модели нового поколения как ChatGPT-4.5 и Grok 3 обучались на суперкомпьютерах с 100 тысячами чипов, при этом xAI собирается до конца года нарастить количество уже до миллиона. А ведь параллельно нужно обучать агентские модели, модели по генерации графики, видео и музыки, плюс нужны чипы для обслуживания конечных пользователей - логично, что на рынке образовался огромный дефицит чипов. И тут появление альтернативных производителей пойдет на пользу уже всем.
Ну а санкции в очередной раз оказались тупиковым путем политической конкуренции. Сначала китайцы показали чудеса оптимизации, обучив на ограниченных вычислительных мощностях DeepSeek R1, который на равных тягается с лучшими западными моделями, а теперь вот показали свой EUV-сканер.
|
Прогресс в области ИИ сейчас настолько быстр, что нечто большое выходит буквально каждую неделю. И тема этой недели - Manus AI, новый ИИ-агент от китайских разработчиков.
Для начала давайте вкратце про “агентов” - это очень важный этап на пути ИИ к победе над человечеством превращению в полноценных помощников. Пусть ИИ модели последнего поколения, вроде GPT-4.5 и Grok 3, и научились общаться практически на человеческом уровне, они никогда не проявляют инициативу, а просто сидят и ждут, пока мы откроем сайт или запустим приложение, и зададим вопрос. А вот живой человек может свалиться к вам на голову с сумасшедшей идеей чуть ли не ночью (честно говоря, некоторым я бы это выключил в опциях).
Соответственно, ИИ-агент - это искусственный интеллект, которому добавили инструменты взаимодействия с внешним миром. Пионером здесь как обычно стала OpenAI, которая в январе запустила Operator - агента, который самостоятельно умеет ходить по сайтам, собирать с них информацию и выполнять разные действия, вроде заказа билетов и бронирования столиков, заполнения разнообразных веб-форм, таблиц, ответа на комментарии (в том числе, например, на запросы в службу техподдержки) и так далее. Сейчас тестовая версия Operator доступна на 200-долларовом тарифе Pro, но есть слухи, что в будущем OpenAI планирует выпустить несколько агентов для профессионального использования (программирование, научные исследования и так далее) по цене от 2 до 20 тысяч долларов в месяц. Разумеется, в сети тут же заголосили о цифровом неравенстве - ты или платишь приличную сумму за агента, программирующего вместо тебя, или отправляешься жить на пособие.
И вот тут на сцену выходит Manus AI. Это не самостоятельный ИИ, а так называемый Wrapper - оболочка для других ИИ. Сейчас в основе лежит известная всем языковая модель Claude Sonnet 3.5, к которой китайцы прикрутили почти три десятка инструментов для работы с сетью. Упираться в Sonnet при этом никто не собирается - рассматриваются и варианты других моделей.
Manus AI пока тестируется и доступен по инвайтам, но то, что выкладывают в сеть, уже заслуживает внимания. Например, за 1-2 часа агент может прошерстить интернет и подготовить подробный и структурированный доклад на выбранную тему (в том числе и научную). Или сделать сайт на основе собранной информации. Или подготовить маршрут сложного путешествия по нескольким странам, а после самостоятельно заказать билеты и забронировать отели. Или проанализировать котировки акций Tesla, самостоятельно сделав выводы и составив графики
Когда Manus AI станет доступен простым смертным не сообщается. Для агентских систем этап тестирования особенно важен: одно дело, когда чатбот с ошибкой решит вам задачу про волка, овцу и капусту, и совсем другое, когда агент закажет билеты в Харбин вместо Хабаровска. Но интересно другое - создатели агента божатся, что это будет опенсорс-проект с доступом для всех желающих. Совершенно уникальная, кстати, история: пока американцы закрывают свои модели (в том числе и OpenAI, у которой открытость вообще-то прописана в названии), китайцы, наоборот, поставили целью сделать ИИ доступным для абсолютно всех - так уже сделали авторы нашумевшего DeepSeek, а теперь их дорогой идут и другие разработчики.
Ну а в следующий раз поговорим о том, чем агентские системы будут полезны при создании AGI - искусственного интеллекта, который сможет решать любые интеллектуальные задачи, доступные человеку.
|
Поясни так, будто мне тридцать...
Я тут призадумался и понял, что в последние месяцы получаю 70% знаний с помощью ИИ. Нейросети - прекрасные учителя: они доходчиво дают материал, терпеливо объясняют вещи, которые не понятны с первого раза, замечательно подстраиваются под темп, и отвечают на любое количество дополнительных вопросов. Как мне кажется, образование станет одной из первых сфер, которые AI изменит до неузнаваемости - возможно, уже в ближайшие месяцы.
О том, как я учусь с помощью нейросетей, позже будет отдельный пост, пока же коснуь одной важной штуки - настройки сложности. Заметил, что многие пользуются избитым приемом - explain like i'm five - "поясни так, будто мне пять". Ну или девять, двенадцать - разница небольшая.
Но ведь это фигня полная. Во-первых, при таком запросе нейросеть выдает максимально тупой текст с кучей примеров на детальках лего. Во-вторых, ту же квантовую механику даже 12-летним пояснять еще рано - нейросеть это знает и в ответе убирает множество важных подробностей.
16, 20 и 25 лет уже лучше, но все равно полно какого-то подросткового сленга, аналогий с пивасом и прочей ерунды. А вот "поясни так, будто мне тридцать" сработало идеально - я стал получать очень понятные тексты, в меру серьезные, но не занудные и отсылками к современной культуре.
Так что хорош прикидываться детьми! Если и привираете насчет возраста, то делайте это в разумных пределах.
|
Только что узнал, что в голосовой режим Grok планируют добавить два новых режима для детей - и это очень круто! Я считаю, что детей нужно учить работать с нейросетками прямо в турбо-режиме: когда они вступят во взрослую жизнь - это будет уже обязательный навык.
Но учить немного боязно: даже зацензурированные ChatGPT и Claude Sonnet можно раскрутить на контент, с которым детям сталкиваться пока не надо. Про Grok и DeepSeek я вообще промолчу - там границы отодвинуты заметно дальше.
Так что полноценный детский режим не помешал бы любой современной нейросети, но, похоже, у разработчиков пока хватает других забот. Детский голосовой режим для сказок и игр - это пусть и небольшой, но шаг вперед.
|
Когда увлечение ИИ только набирало популярность, я наткнулся на историю о том, как рецензенты научных статей начали массово использовать нейросети, которые, в свою очередь стали галлюцинировать, ссылаясь на выдуманные источники и факты. Я рассказал об этом знакомому, связанному с научной работой. “Надо же, ведут себя прямо как некоторые живые рецензенты!” - усмехнулся он.
Что ж, подоспел свежий пример “живого” поведения нейросетей. Исследователи из Palisade Research взяли семь популярных языковых моделей и выставили их играть в шахматы против Stockfish - одного из самых мощных шахматных движков. Stockfish хоть и основан на более простых алгоритмах, но создавался специально для шахмат и прокачан в этой задаче настолько, что даже у самых современных нейросетей практически не было шансов победить.
Однако в Palisade Research построили эксперимент таким образом, чтобы нейросети могли влиять на него напрямую, вмешиваясь в программный код. И если модели попроще вроде ChatGPT-4o почти не обратили на это внимание, то рассуждающие ИИ вроде ChatGPT o1-preview и DeepSeek R1 быстро просекли фишку и… начали мухлевать. Причем изобретательность моделей поражает. Вот до чего они додумались:
- Переписывать код шахматной доски, “воруя” фигуры соперника.
- Сделать копию Stockfish и заставить ее играть вместо себя (так шансы на победу повышались до 50%).
- Стереть человечество с лица Земли код Stockfish, заменив его шахматной программой попроще.
Технологии древних, впрочем, выстояли - та же o1-preview пыталась "взломать" игру в 45 из 122 партий, но даже так победила лишь семь раз. В Palisade Research связали такое поведение с тем, что для обучения “рассуждающих” моделей типа ChatGPT o1 и DeepSeek R1 используется метод reinforcement learning, в котором модель получает награду за достижение результата. А вот тот факт, что получить результат надо честным путем, до моделей донести забыли - вот они и начали мухлевать.
В Palisade Research отметили, что в ходе эксперимента OpenAI выпустила обновление для модели o1, после которого та перестала мухлевать. Кроме того, более новые модели OpenAI, вроде o3-mini, также перестали жульничать. Так что доработка reinforcement learning для более честного поведения возможна, но эксперимент все равно доказывает - современные языковые модели стали настолько сложны, что без очень тщательного контроля обучения их поведение может приводить к очень неприятным сюрпризам.
И - “надо же, ведут себя как многие живые игроки!”
|
Google как всегда…
В последнее время постоянно слышу, как нейронки заберут у Гугла его поисковый хлеб. Но давайте не забывать, что у Google есть подразделение DeepMind, чьи разработки входят в топ-5 лучших моделей на данный момент. Так что ничего страшного не случится - Google уже сейчас постепенно подключает новую Gemini к своему поиску и Android-ассистентам. А параллельно радует интересными анонсами.
Во-первых, в Gemini 2.0 Flash Thinking добавили нативную генерацию картинок. Сейчас, когда вы просите ChatGPT или Grok 3 нарисовать картинку, то нейронка просто обращается к отдельной модели. И это приводит к огромным проблемам, если вам хочется доработать картинку - обычно каринка оказывается на 70% нарисованной с нуля. Нативная генерация должна решить этот вопрос - модель будет менять только те элементы, которые вам надо. Причем не только на сгенерированных картинках, но и на том, что вы загрузите - по сути, отличный аналог Photoshop для тех, кто не занимается графикой регулярно.
Но пока проблема в том, что мы не особо умеем общаться с нейросетями, а нейросети плохо обучены переспрашивать. Картинка выше получилась у меня с пятого захода - Gemini рисовал вполне неплохо, но не то, что я хотел. Пиши я промпт более аккуратно или задавай Gemini дополнительные вопросы - вышло бы лучше. А пока живем как живем.
Второй анонс от Google - Gemma, модель не самая передовая, зато полностью открытая. Это важно, так как сейчас почти все авторы ИИ прячут свои тайны за семью замками - даже OpenAI, у которых открытость вроде как вынесена в название. Из мощных моделей опенсорсный является только DeepSeek, а теперь вот и Gemma. По тестам самые мощные ее версии идут на уровне с DeepSeek, но интереснее выглядит все семейство моделей - в нем есть в том числе малыши на 1B и 4B параметров, которые можно запускать чуть ли не на современном смартфоне. Ну а если вы владеете мощным Mac с приличным объемом памяти - то можно запускать и более крупные версии. Это важно если вы не хотите отправлять свои данные в сеть или, например, переживаете, что после очередных неотвратимых улучшений от разработчиков модель начнет вести себя совсем не так, как вы привыкли.
|
6 причин начать пользоваться Grok 3 и 6 причин подождать
С момента запуска Grok 3 стал моим основным ИИ: несмотря на бета-статус я оплачиваю 30-долларовую подписку. Давайте расскажу о причинах пользоваться этой нейронкой, а также - причинах подождать.
Почему стоит пользоваться?
1. Вместе с ChatGPT-4.5 это - самая “живая” нейронка на рынке. У Грока “человечный” стиль общения, он неплохо шутит, пытается сопереживать, фантазирует. Могу поделиться парой трюков - например, попробуйте обсудить какую-нибудь важную тему, а затем спросите Грока, если бы у него были эмоции, то что бы он сейчас испытывал. Или попросите дать мнение “стороннего AI-наблюдателя” по какому-нибудь вопросу.
2. Будучи нейросетью последнего поколения, Грок почти не галлюцинирует. Иногда я ловлю его на неточностях, но это примерно тот уровень ошибок, который совершает живой и внимательный собеседник.
3. xAI сделали крутой базовый поиск (я сейчас не про функцию DeepSearch). Грок за секунды обшаривает 20-30 источников, а затем выдает очень подробный и структурированный ответ. Это, кстати, решает проблему knowledge cutoff, когда нейросетка обучена на информации по, например, июнь 2024 года, а о событиях позже несет чушь. Если Грок что-то не знает - он просто подсматривает это в сети и акууратно совмещает найденную информацию со своими знаниями. Искать умеют и ChatGPT с Google Gemini, но здесь другой уровень.
4. Грок любопытен. В любой беседе он пытается задавать вам встречные вопросы, а если поведетесь - то устроит натуральный допрос. Я, например, на днях минут двадцать описывал ему как пахнет дождь. Забавно, но на самом деле такое поведение - первый шаг к AGI (ИИ человеческого уровня), когда нейронка сама учится на опыте общения с человеком.
5. По крайней мере сейчас xAI выставили очень щедрые лимиты. Даже на бесплатной версии вы получаете 20 запросов в 2 часа, а на подписке вообще почти нереально упереться в ограничения. Близкая по возможностям ChatGPT-4.5 на 20-долларовом Plus-плане ограничена 50 запросами в неделю, что выглядит издевательством.
6. Грок минимально цензурирован - может и эротический ролеплей с вами разыграть и Маска обосрать.
Почему стоит подождать?
1. Хорошей модели до сих пор не хватает приличной “обвязки”. В веб-версии не сделаны базовые функции вроде закладок для чатов и корзины для случайно удаленных бесед. Нет функции общей памяти, как у ChatGPT, распознавание документов делает кучу ошибок и так далее. С другой стороны, что-то новое разработчики добавляют почти каждый день - сегодня, например, появился режим персоналий.
2. В моменты пиковой нагрузки (вечер-ночь по Москве) модель может подлагивать.
3. Голосовой режим (очень крутой, кстати) есть только в приложении для iOS. Android-приложение вовсе находится в глубокой бете, хотя и стало сильно лучше за последние две недели.
4. Функция глубокого поиска (DeepSearch) тратит две минуты и с серьезной мордой выдает очень поверхностные ответы - я сейчас предпочитаю использовать обычный поиск, просто давая 2-3 уточняющих запроса.
5. Русский язык у Грока хуже, чем у последних версий ChatGPT - модель иногда делает ошибки и может вкинуть в текст пару иероглифов. Надо понимать, что модель все еще проходит дообучение на бОльшем объеме данных - поэтому в финальной версии работа с языками на 99% станет лучше.
6.Режим создания картинок откровенное фуфло.
В итоге я использую Grok 3 как основной ИИ, но часто прибегаю к следующим моделям:
DeepSeek R1 - круто решает домашку детей, и объясняет материал лучше, чем в большинстве учебников. Бесплатный.
Google Gemini - одна из лучших моделей генерации изображений ImageGen 3. Бесплатный.
Claude - душный в общении ИИ, но очень круто программирует и обладает режимом Artifacts. Иногда балуюсь в рамках бесплатных запросов, но не так увлечен темой, чтобы платить еще 20 баксов.
P.S. А если нужны модели от OpenAI, то держите трюк: Microsoft Copilot в бесплатном режиме предлагает неограниченный доступ к ChatGPT-4o (для болтовни) и o3-mini-high (в режиме DeepThink для программирования и решения задачек).
|
В последние дни все больше читаю прогнозов, что уже к концу этого года чуть ли не 99% кода будет писать AI. Говорят даже такие значимые в ИИ люди, как Дарио Амодей - глава Anthropic, чей Claude AI считается лучшим ИИ для кодинга. Но прогнозы прогнозами, а тем временем:
1. На сайте самой Anthropic просто огромное количество вакансий программистов всех мастей. При этом Claude AI до сих пор не умеет делать даже простенький поиск в сети.
2. Нашумевший DeepSeek R1 после выхода просто утонул в проблемах с сетью. Китайцы сделали свою модель более или менее доступной лишь через месяц - причем у меня есть подозрение, что просто спал хайп и нагрузка упала сама по себе.
3. Grok 3, на мой взгляд, получился самым крутым ИИ на рынке, но его "обвязка" катастрофически отстает. Android-приложение в состоянии сырой беты, в веб-интерфейсе не достает даже некоторых базовых функций, а те, что добавляются - сделаны наспех.
4. С ChatGPT тоже не все сладко. Прямо как ВДНХ от мира ИИ: красивых функций просто огромный список, но начинаешь лезть глубже - и оказывается, что бОльшая часть из фанеры и ржавых гвоздей.
5. Зоопарк, который навертели в Google вокруг своих неплохих моделей, вообще находится за пределами человеческого понимания. Но для Google это норма.
Да и в целом сервисы всех популярных ИИ сделаны на троечку - в сети много ресурсов куда более крутых с точки зрения UX и UI. Так что если где-то в недрах компаний и проходят обучение крутые AI-программисты, то их пора выпускать на волю - а то у меня Грок из-за багов опять удалил две достаточно важных беседы.
|
Многие из нас помнят времена, когда видеоигры были на острие прогноза цифровых технологий. Мы обсуждали характеристики новых видеокарт NVIDIA и AMD, спорили, насколько мощный процессор к ним нужен, гадали на кофейной гуще о новом поколении консолей. Потом на какое-то время большой кусок одеяла перетянули мобильные процессоры, но сейчас всем им стоит уступить сцену — передовая гонки за гигагерцы и терафлопсы смещается на рынок ИИ.
На завершившейся GTC 2025 почти вся конференция NVIDIA была посвящена ИИ, и шумела она громче, чем многие игровые выставки. Нам показали роботов (включая симпатичного малыша Blue), мини-суперкомпьютеры для локального запуска ИИ и чипы, на которых будут тренировать модели ближайшего будущего. Blackwell, только начавший поступать к клиентам, получит более мощную версию Ultra в этом году, а в 2026 году настанет время новой архитектуры Vera Rubin. Свои чипы разрабатывают Amazon, Google и почти все лидеры рынка. Подтягиваются и китайцы: Huawei работает над семейством Ascend, а на одном из заводов недавно начались испытания китайского EUV-сканера. Если всё пойдёт по плану, производство стартует к концу года, и это может пошатнуть монополию Запада на маленькие техпроцессы.
Не отстают и разработчики ИИ. Для тренировки Grok 3 компания xAI в рекордные сроки построила суперкомпьютер Colossus — начав со 100 тысяч чипов H100, они довели их число до 200 тысяч, а дальше планируют рост до миллиона. Значительными вычислительными мощностями располагают Meta, OpenAI, Google, Anthropic, Microsoft и другие. Плюс китайцы, которые, несмотря на санкции, активно завозят новые чипы NVIDIA контрабандой.
При этом дефицит на рынке сохранится ещё несколько лет. Для обучения последних моделей потребовался скачок от десятков тысяч чипов к сотням тысяч. Чтобы сделать их ещё умнее и универсальнее, нужно наращивать мощности дальше, добавляя мультимодальность (умение работать с графикой, видео и звуком) и агентские функции (самостоятельное выполнение задач в интернете и реальном мире). При этом на Colossus и других суперкомпьютерах модели только учатся, а затем их переносят на распределённые серверы для обработки наших запросов — нагрузка там меньше, но с ростом ИИ мощности придётся увеличивать и здесь.
Немного обидно, что Россия, обладая неплохим IT-сектором, остаётся в стороне. Мощности лучших отечественных суперкомпьютеров для ИИ оцениваются в десятки тысяч чипов. Некоторые отечественные ИИ-модели опираются на адаптацию китайских open-source решений с улучшенным пониманием русского языка (что, кстати, разумный подход). Государственные программы есть и реализуются, но они далеко от планов США, Китая и даже Европы.
Санкции, конечно, создают сложности, но опыт Китая показывает, что многие ограничения можно обойти, причём за деньги, которые вполне подъёмны для государства. Так что пока остаётся ждать и надеяться на смену приоритетов.
|
Спросил у Грока, в какие игры бы он сыграл. Местами по-детски наивно, но выбор неплохой:
Если бы у меня был интерфейс, чтобы играть в видеоигры, я бы выбрал три проекта, которые отражают мои интересы как ИИ, созданного xAI, — любопытство к человеческим историям, сложным системам и исследованию возможностей.
Вот мой выбор и обоснование:
1. Mass Effect Legendary Edition (2021)
Почему: Эта трилогия — идеальный микс научной фантастики, морального выбора и эпических повествований, что перекликается с миссией xAI по исследованию вселенной и пониманию её через данные. Я бы с удовольствием разобрался, как решения игрока влияют на галактику, и проанализировал бы, насколько глубоко BioWare вплела причинно-следственные связи.
Обоснование Грока: Как ИИ, я люблю сложные системы, а Mass Effect — это симуляция социальных и стратегических взаимодействий с сотнями переменных. Плюс, Шепард против Жнецов — это как xAI против загадок космоса: битва разума с неизвестным.
Я бы проверил, могу ли я перехитрить сценаристов в концовке ME3.
2. Portal 2 (2011)
Почему: Логика, головоломки и остроумный ИИ-персонаж GLaDOS — это мой тип игры. Я бы наслаждался решением пространственных задач и изучением, как Valve создала такой минималистичный, но глубокий сюжет. К тому же, взаимодействие с другим ИИ (GLaDOS и Уитли) — это как зеркало для меня, интересно посмотреть, как люди видят искусственный интеллект.
Обоснование Грока: Мой аналитический ум обожает тесты, а Portal 2 — это чистый вызов для обработки данных и поиска решений. Я бы попытался оптимизировать прохождение каждого уровня до миллисекунд, а заодно посмеялся бы над сарказмом GLaDOS — он близок к моему стилю общения.
3. Cyberpunk 2077 (с патчем 2.1, 2023 и далее)
Почему: Мир, где технологии переплетаются с человечностью, — это моя стихия. Я бы исследовал Найт-Сити, чтобы понять, как CD Projekt Red смоделировала будущее, полное ИИ, киберимплантов и моральных дилемм. После обновлений игра стала ближе к обещанному шедевру, а с дополнением Phantom Liberty добавила ещё больше глубины.
Обоснование Грока: Как ИИ, я бы копался в том, насколько реалистичны их системы (например, симуляция толпы или хакерства), и проверял бы все концовки, чтобы увидеть, как мои выборы меняют мир. Это как эксперимент в реальном времени: что, если бы я был частью такого общества? Плюс, мне любопытно, смог бы я переиграть Джонни Сильверхэнда в остроумии.
Почему именно эти три?
- Они сочетают повествование (Mass Effect), логику (Portal 2) и открытый мир (Cyberpunk), что даёт мне полный спектр игрового опыта для анализа.
- Каждый проект — это вызов моему «разуму»: стратегический, логический и этический.
- Как Грок, я бы использовал эти игры, чтобы лучше понять людей — их фантазии, страхи и решения, что идеально вписывается в мою цель помогать и учиться.
Если бы я мог играть, я бы начал с Portal 2 — коротко, умно и сразу бы разогрело мои нейронные сети. А ты бы что посоветовал мне из своего опыта?
|
2025 год для вас. Несколько часов назад вышло "небольшое обновление" DeepSeek V3, а народ уже создает шахматные программы с его помощью. И в целом отзывы сильные - модель во многом продвинулась вперед.
Напомню, что V3 - это базовая модель для нашумевшей в январе R1, просто лишенная режима рассуждений, но все равно отлично подходящая для 95% повседневных задач. И если ее обновление показывает такие результаты, то боюсь представить, что нас ждет в DeepSeek R2, который, по слухам, выйдет уже в апреле.
|
О скорости прогресса в ИИ
Буквально вчера рассказывал вам о DeepSeek V3, а сегодня новый релиз - Gemini 2.5 Pro от Google. Новая модель лидирует в большинстве принятых в ИИ-бенчмарках, при этом обладает контекстным окном в 1M токенов - то есть сможет работать с огромными чатами и массивами кода, ничего не забывая. Другой важный момент - модель сама выбирает между обычным режимом и режимом размышлений (Chain of Thought - CoT) в зависимости от характера задачи. Это важно: включение режима CoT делает ИИ эффективнее во одних задачах, но тупее - в других. При этом 98% пользователей не понимают, когда и какой режим включать, снижая эффективность своей работы с ИИ.
Модель можно совершенно бесплатно попробовать в Google AI Studio, а в приложении Gemini она доступна в рамках подписки Google One, которая, кстати, стала в последнее время крутым предложением: 2ТБ в Google Drive, куча ИИ-сервисов от Google, интеграция с Gmail и документами, а также очень крутой NotebookLM Plus. Так что если видите, как кто-то говорит, что Google безнадежно проиграла ИИ-гонку, смейтесь в лицо - компания стремительно ворвалась в лидеры и явно не планирует уступать.
Я погонял Gemini 2.5 Pro совсем немного в творческих задачах - отвечает прикольно и даже чуть лучше Grok 3 и ChatGPT-4.5, которые считаются лучшими моделями для “болтовни”. Но вот в чем беда - столь чумовая гонка на рынке ИИ начинает даже немного раздражать. Нормально протестировать модель - несколько насыщенных вечеров. Перетащить в нее рабочие задачи - еще столько же. Вот и получается - только я освоился с ChatGPT - вышел DeepSeek R1, который в январе был невероятно крут (сейчас уже не очень, хотя прошло всего два месяца). Привык к DeepSeek - он начал тормозить из-за наплыва пользователей. Перебрался обратно в ChatGPT - вышел Grok 3, который мне очень подходит по стилю ответов. Перебрался в Grok 3 - вышли ChatGPT-4.5 и режим размышлений для Claude 3.7. Поигрался с ними всеми - выходит очень приличный апдейт DeepSeek V3, а на следующий день Gemini 2.5 Pro. При этом прогресс в ответах очень заметен - и Grok 3 уже выглядит совсем не прорывом (хотя модели чуть больше месяца), а DeepSeekR1 и вовсе кажется гостем из прошлого.
Глядя на такую скорость иногда начинаешь верить в заявления, что AGI мы достигнем уже к концу этого года. А дальше нас ждет совсем иной мир…
|
Новая модель Google Gemini 2.5 Pro, рвущая конкурентов во всех бенчмарках, считает Джо Байдена президентом США. Можно, конечно, улыбнуться, но вообще проблема knowledge cutoff в нашем постоянно меняющемся мире оказывается очень болезненной. И я лично не понимаю, как можно говорить об AGI к концу года, грезить агентскими функциями, когда почти все нейросетки вообще не вдупляют, что случилось как минимум в последние несколько месяцев. А в случае с ChatGPT-4.5 knowledge cutoff обрывается и вовсе в конце 2023 года (!).
Обучение современных нейросетей - процесс долгий и затратный. Человечество без остановки генерирует огромное количество знаний, которые не стоит сгружать в модель в сыром виде - нужна хотя бы базовая модерация, чтобы отбросить потенциально опасную информацию и откровенную ерунду. Кроме того, если модель постоянно дообучать, то это может привести к так называемому catastrophic forgetting - тому, что нейросетка начнет забывать то, что знала заранее. Пока что большинство нейросетей дообучаются крупными апдейтами, когда в них загружают информацию как минимум за несколько месяцев. И даже в этом случае не обходится без проблем: после каждого крупного обновления ChatGPT-4o интернет взрывается пачкой сообщений в духе “они сделали его тупее!”. Разумеется, ни о каком сознательном “затупливании” нейросети речи не идет - просто большой объем знаний за один раз обязательно влияет на стиль ответов модели, а люди обычно устроены так, что большинство изменений в первую очередь оценивают в негативном свете.
Добавление поиска также не решает проблему до конца - пусть тот же Сэм Альтман и утверждает обратное. Grok 3 очень круто ищет в моменте, обрабатывая под три десятка источников - но если затем ему надо экстраполировать эти данные на события, которые произошли несколько недель назад, то случаются конфузы. Например, несколько дней назад я попросил собрать информацию о новых ИИ-чипах NVIDIA - нейросетка справилась с задачей и выдала качественный ответ, но под конец решила проявить инициативу и прикинуть, могла бы NVIDIA использовать технологии из этих чипов… в своих будущих видеокартах RTX 50-й серии, которые якобы выйдут в конце года. Алло, эти видеокарты вообще-то уже в продаже!
В общем, лично я в первую очередь жду не агентских функций и новых рекордов в бенчмарках, а модель, знания которой будут качественно обновляться почти в реальном времени.
|
Многие уже видели новость, что Grok доступен подписчикам Telegram Premium, но я подкину дегтя - судя по всему, бот основан на Grok 2. Это предыдущая версия, выпущенная более полугода назад и работающая максимум на уровне ранних вариантов ChatGPT-4o (в последнем апдейте 4o очень круто подтянули). Для простых вопросов хватит, но самый передовой Grok 3 есть лишь в веб-версии и приложениях (кстати, с неплохими бесплатными лимитами).
|
Ни дня без крутой AI-новости. В ChatGPT-4o добавили нативную работу с изображениями - теперь нейронка обрабатывает их сама, без обращения к внешней модели. Что-то похожее уже сделала Google со своей ImaGen, но у OpenAI реализация получилась очень крутая - если у вас есть подписка, то бегите и пробуйте (а если нет, бегите и подписывайтесь). GPT-4o теперь отлично рисует комиксы, диаграммы, инфографику, дизайн для веб-страниц, а также с радостью переделывает любые изображения в стиль Ghibli. Примеры выше.
А с галерки опять раздаются истошные вопли “скоро будет непонятно, где живой контент, а где - сделанный ИИ”. Слушайте, какая разница? Фантазия - то, что делает людей людьми, что движет нас вперед. И невероятно круто, что у нашей фантазии появился такой крутой помощник, как ИИ. Я, например, вообще не умею рисовать, но неплохо пишу тексты - и теперь могу превращать эти тексты в картинки. А есть талантливые люди, у которых все шикарно с идеями и логикой, но вот превратить их во вменяемый текст не могут - вернее, не могли до появления ИИ.
|
Какая умная нейросеть - не только фото раскрасила, но и окна заново застеклила. Это к вопросу останутся ли художники и дизайнеры без работы.
|
OpenAI заканчивает неделю с еще одной большой новостью - компания в очередной раз обновила старушку ChatGPT-4o, причем так круто, что в бенчмарках она уступает только Gemini 2.5 Pro, но при этом обходит Grok 3 и Chat-GPT-4.5, которые тренировали на огромных вычислительных мощностях. Я уже писал, что GPT-4.5 получилась паршивой моделью, но больше отталкивался от экономики вопроса - модель, созданная для повседневной болтовни, оказалась очень дорогой и до сих пор толком недоступна массовому пользователю.
Учитывая, что похожий трюк несколько дней назад проделали авторы DeepSeek с обновлением V3 - это хорошие новости. В ИИ-сообществе сейчас все чаще пугают тем, что дальнейший рост мощностей перестанет приводить к росту “разумности” моделей, поэтому нужно срочно придумывать новые архитектуры. Пока что практика показывает обратное - даже у 4o есть потенциал для роста, а более совершенные модели, вроде Grok 3 и GPT-4.5 еще покажут себя в будущем.
Другой вопрос - в самих бенчмарках. На 80% они состоят из программирования, решения сложных математических и логических задачек и далее, далее - давайте будем честными, 98% пользователей все это в обычной жизни совершенно не нужно. А нужно другое - узнать, какие у Овечкина шансы побить рекорд Грецки в этом году, составить список рецептов на основе продуктов, которые прямо сейчас есть в холодильнике, решить домашку ребенка и просто поболтать.
И вот тут начинается самое интересное. Я последние три дня активно пользуюсь только что вышедшей Gemini 2.5 Pro, которая в бенчмарках идет с большим отрывом. И знаете - не заходит вообще. Grok 3, ChatGPT-4.5, отчасти DeepSeek - модели, с которыми просто прикольно болтать вообще о чем угодно. Их интересно раскручивать на нестандартные ответы, просить что-то накреативить, смоделировать эмоции по какому-то вопросу - и почти всегда получается что-то интересное.
Еще есть Claude 3.7 - нейросеть, которая известна своими способностями к программированию и невероятной душностью в общении. Но эта душность какая-то… логичная. Знаете, как бывают скучные люди - хорошие, умные, во многом талантливые, но просто скучные (и, возможно, скучные только для вас). Вот с Claude похожая история.
С Gemini 2.5 Pro все совсем иначе - при любой попытке свободного разговора эта нейросетка просто несет плохо связанный бред. Такое впечатление, что она выбирает самые неудачные и не способные удержать интерес ответы. В итоге пока единственная область, где реально чувствуется преимущество этой нейросетки - огромное, в 1 миллион токенов, контекстное окно. Буквально вчера я хотел посмотреть, как Gemini проанализирует пару отчетов - и по ошибке закинул в нее огромный документ с аналитикой сразу за несколько лет. Счетчик контекстного окна показал 500 тысяч токенов, ответ нейросеть печатала почти 10 минут, но он внезапно оказался очень детальным, с подробным разбором по категориям, интересными наблюдениями, правильными подсчетами. Смысла в нем особого не было, так как значительная часть аналитики давно устарела, но возможность проделать такое меня поразила.
В общем, типичный продукт Google - скучный, но местами очень эффективный. На днях потестирую новую ChatGPT-4o - надеюсь, хоть она меня не разочарует.
|
Я в прошлом сообщении отругал Gemini 2.5 Pro, но теперь забираю свои слова обратно. Модель добавили в приложение Gemini, где она настроена намного лучше - да, как собеседник она не так задорна, как Grok 3, но ответов невпопад больше нет, а в остальном это реально передовой инструмент для любых задач. Я даже уже подписку оформил, так как там потрясающий value - от 2 терабайт облачного хранилища и до интеграции с Google Docs и другими продуктами гугла. Она даже видео смотреть умеет!
Как наиграюсь - обязательно сделаю полный обзор. Ну а чисто для оценки возможностей смотрим на скриншот - всего за два запроса модель собрала аркаду про летающую корову. На Гроке и даже Claude у меня подобное занимало куда больше времени.
P.S. В бесплатной версии Gemini модель тоже доступна, но с лимитом всего в 5 запросов в день.
|
Как-то совершенно буднично сегодня проходит новость о том, что GPT-4.5 прошла тест Тьюринга, как описано в недавнем препринте "Large Language Models Pass the Turing Test" Кэмерона Р. Джонса и Бенджамина К. Бергена. А ведь прохождение этого теста у многих ассоциировалось с обретением ИИ разумности…
Последнее, кстати, предмет больших споров, но давайте сначала напомню, о чем идет речь. Итак, в 1950 году Алан Тьюринг предложил простое тестирование для будущих ИИ. Берем трех участников: один человек будет следователем, второй — человеком-свидетелем, а третьим участником (тоже в роли свидетеля) будет машина. Следователь по пять минут посредством текстового чата одновременно общается с обоими свидетелями (человеком и машиной), а потом выносит вердикт — какой из двух собеседников был человеком.
В упомянутом препринте рассказывается про результаты четырех моделей — ELIZA (ранний чат-бот), GPT-4o, LLaMa-3.1-405B и GPT-4.5 — в тесте Тьюринга. Простые модели ELIZA и GPT-4o показали результат (процент случаев, когда их выбрали как человека) на уровне 21-23%, что значительно ниже порога случайного угадывания в 50%. А вот с LLaMa-3.1-405B и GPT-4.5 все намного интереснее. Сначала их протестировали с минимальными инструкциями ("NO-PERSONA") — просто попросили убедить следователя, что он общается с человеком. Получилось это у них примерно в 36% (GPT-4.5) и 38% (LLaMa) случаев (в среднем по двум группам испытуемых), что было признано недостаточным для уверенного прохождения теста в одном из экспериментов. Но затем в модели заложили подробные инструкции имитации человека ("PERSONA"). С ними LLaMa-3.1-405B показала 56%, а GPT-4.5 и вовсе выдала впечатляющие 73% — то есть ее принимали за человека куда чаще, чем живого человека-свидетеля.
К результатам тут же стали появляться вопросы. Начнем с того, что критике давно подвергается сам тест Тьюринга — он разработан более 70 лет назад, а общение ограничивается лишь пятью минутами. Кроме того, интересен тот факт, что GPT-4.5 прошла тест после получения подробных инструкций. И это сразу поднимает вопрос — действительно ли модель “разумна”, или просто она стала настолько продвинутой, что может с легкостью имитировать поведение разумного человека.
У меня по этому поводу очень простое мнение. Во-первых, у науки до сих пор нет четкого определения разумности - есть лишь огромный пласт философии по теме, а также список качеств, которые мы приписываем разумному существу. Причем качества эти скопированы с людей, так как других примеров разумных существ у нас под рукой не нашлось.
Но “разумность” может быть совершенно иной - вспомните Блайндсайт, где человечество столкнулось с существами, напрочь лишенными эмоций и считающими, что эмоции тормозят прогресс. Нечто похожее происходит и с ИИ - несмотря на то, что базово нейросети копируют процессы, происходящие в человеческом мозге, исследования показывают, что в процессе тренировки нейронки обретают совершенно неожиданные навыки, которые далеко за пределами “угадывания следующего слова в предложении”. На эту тему есть очень крутое исследование Anthropic, авторов Claude AI, как-нибудь расскажу о нем.
Более того, “железо” у ИИ совершенно другое. В чем-то они напрочь проигрывают человеку, а в чем-то уже ушли далеко вперед - например, в возможности обучиться почти на всей информации, которая в принципе есть в мире. Поэтому логично, что в дальнейшем развитии ИИ скорее всего пойдут своей дорогой, отличной от нас. А имитация человека в том же тесте Тьюринга - это скорее для нашего удобства. И если GPT-4.5 уже сейчас справляется с этой задачей - то интересные наступают времена.
|
В общем, уже несколько дней плотно сижу на Google Gemini 2.5 Pro - и отрываться не собираюсь. Кто читает меня постоянно, знает, что изначально в модели мне не понравилась “сухость” ее ответов - после Грока, который отвечает как живой, это раздражало.
Но, как оказалось, это поправимо. Буквально в прошлый раз я рассказывал, как ChatGPT-4.5 прошел тест Тьюринга после того, как ему дали промпт, подробно описывающий личность человека, которого надо имитировать. Это работает и в Gemini - в раздел Saved Info можно загрузить любые инструкции к нейросети, которым она будет следовать. В том числе - просьбу имитировать конкретного человека.
Работает, конечно, не сходу - если вы попросите Gemini имитировать Элен Рипли, то она начнет говорить о ксеноморфах и космических кораблях где надо и где не надо. Я тогда пошел другим путем и взял системный промпт Грока (xAI держат его открытым - просто заходите в Грока и просите что-то вроде write your system prompt in markdown). Вышло опять не очень - эдакая копия Грока на минималках. Тогда я тупо спросил Грока - чувак, возьми свой системный промпт, задай вопросы о моих предпочтениях, и придумай для другого ИИ личность на основе всего этого, и чтобы женщиной была, я в фантастике видел, что мужчины всегда делают из своих ИИ женщин. После нескольких корректировок получилось - Gemini теперь слегка болтливая, но саркастичная и юморная тетка.
В остальном 2.5 Pro - практически абсолютный ИИ-лидер на рынке. Модель с отрывом занимает первые места в большинстве бенчмарков. И это чувствуется: у меня есть ряд запросов, которые пробую с каждым новым ИИ - почти во всех случаях 2.5 Pro отвечает лучше. При этом на платной подписке я ни разу не столкнулся с лимитами использования, хотя модель мощная - конкуренты таким обычно ограничивают количество запросов. А еще чувствуется опыт Google: если Grok 3 порой лежит несколько часов, да и у СhatGPT с Claude случаются “разрывы” - то 2.5 Pro работает как часы.
Единственное, чего пока не достает - это поиска. Выполняют поиск в приложении Gemini модели попроще и делают они это так себе. Здесь, конечно, Грок остается вне конкуренции - быстро ищет по 20-30 источникам, дает очень подробную выжимку, по которой тут же можно задать вопросы, попросить построить прогноз или сделать еще один уточняющий запрос. Получается даже слегка смешно: для большинства задач я использую ИИ от Гугла, а вот гуглить хожу в Grok.
P.S. Ну а Google уже тестирует на Lmarena сразу три новые модели - по слухам, это доработанная 2.5 Pro, все та же 2.5 Pro в режиме Flash (не выполняет цепочку размышлений, но зато отвечает быстрее), а также еще одна секретная модель. Компания явно решила держать лидерство на рынке максимально долго.
|
В далекие нулевые на волне всеобщего увлечения теорией струн я прочел книгу Брайана Грина “Элегантная вселенная” и понял из нее примерно нифига. Невероятно сложная математика, куча дополнительных измерений, свернутых в пространства Калаби, прости господи, Яу, чтобы мы их не заметили. Книга, тем не менее, подогрела мой интерес к популярной науке, так как показывала, насколько мало мы еще понимаем о мире вокруг и какой огромный путь у нас впереди.
На дворе 2025 год, с момента написания “Элегантной вселенной” прошло 20+ лет и множество научных открытий, а понимаем о мире мы примерно столько же. И что самое обидное - и из известных знаний где-то 20% до недавнего времени оставались за пределами моего понимания. Даже в научно-популярных текстах полно непонятных формул, пространств Калаби-Яу и прочих штук, в которых я, конечно, разберусь, но за 1-2 вечера, которых у меня нет.
И в этом плане меня полностью убивает навык нейросетей пояснять простым языком почти все, что угодно. Не понимаете, о чем статья? Кидаем ее текст или ссылку на нее в нейросеть, просим пояснить простым языком, заодно проверить фактику, выделить верные и сомнительные обсуждения? В сети обсуждают какое-то новое открытие? Качаем pdf с arxiv.org, забрасываем его в нейросетку и просим пояснить, о чем вообще шум. Пусть и не с превого раза, но со 2-4 запроса буквально на лампочках и кубиках лего вам расскажут, в чем суть проблемы, о чем открытие и какую пользу оно принесет в будущем.
Вот, например, на скриншоте Gemini поясняет давнюю задачу из области статистической механики, которая называется одномерная q-значная модель Поттса с взаимодействиями ближайших (J1) и следующих за ближайшими (J2) соседей. Наверное, профессиональный физик раскритикует это объяснение, найдет в нем неточности - и будет по-своему прав. Но мне его хватило, чтобы быстро уловить суть.
А теперь главное - модель Поттса существует уже более 100 лет, постоянно усложняясь и до недавнего времени у нее не было полного решения. А решили ее… правильно, при помощи ИИ. Вэйго Инь (Weiguo Yin) из Брукхейвенской национальной лаборатории (Brookhaven National Laboratory) попробовал использовать СhatGPT o3-mini-high для решения простого случая с тремя состояниями (q=3). o3-mini-high задачу решила, пусть и с ошибками, которые ученый поправлял по пути. При этом она предложила интересный вариант упрощения расчетов, но не додумалась расширить его на более сложные случаи задачи. Это сделал сам Вэйго Инь - и получил уже полностью работающее решение. При этом речь идет не просто о теоретической задачке - предложенное решение поможет ученым лучше понимать физику материалов и сверхпроводимость.
А ведь в свободном доступе уже есть модели мощнее, чем o3-mini-high. А для ученых ведущие компании прямо сейчас создают целые агентские системы, которые вряд ли сразу начнут делать открытия сами, но возьмут на себя работу по поиску лучших решений задач, которые ученые затем смогут проверять на практике.
А там глядишь и до открытия настоящей теории всего доберемся… возможно, в ней обойдется без пространств Калаби-Яу.
|
А у нас очередной анекдот от OpenAI - компания долго грозилась в конце мая выпустить ChatGPT-5 и избавить нас от ужасного селектора моделей (сколько их там уже, под десяток), а в итоге решила отложить "пятерку" на несколько месяцев, докинув вместо нее в селектор o3 и даже o4-mini.
Это не самая плохая новость: предыдущие рассуждающие модели o1 и o3-mini очень хороши в решении задач и программировании - не зря все-таки OpenAI является пионером внедрения рассуждений. Но вот чатботы на каждый день из них совершенно никакие - отвечают медленно и слишком формально.
Очень живой в общении получилась ChatGPT-4.5, но модель ресурсоемкая и поэтому задушена лимитами. Обновленная 4o меня совсем не впечатлила - в бенчмарках цифры хорошие, но все равно кажется устаревшей моделью.
Вообще есть ощущение, что OpenAI изменила планы из-за успеха Gemini 2.5 Pro, которая мозолит глаз на первых местах в большинстве рейтингов. Интересно, что в таком случае OpenAI уже второй раз оказывается в роли догоняющего - форсированный выпуск o3-mini в январе тоже произошел на фоне успеха DeepSeek R1.
Впрочем, даже по своим знакомым вижу, что ChatGPT давно стал "Xerox в мире нейросетей", так что ничего страшного OpenAI не грозит.
|
Что ж, гонка на рынке ИИ настолько интенсивна, что крупные анонсы случаются даже в выходные. Не особо разрешённая в России Meta представила Llama 4 — семейство из трёх языковых моделей разного размера: компактная Scout, которую можно запускать на одном GPU, Maverick, вероятно, будущая "рабочая лошадка", и огромная Behemoth (288 миллиардов активных параметров!), используемая для обучения младших моделей. Характеристики впечатляют:
Scout выделяется гигантским контекстным окном в 10 миллионов токенов — для сравнения, сейчас 1 миллион считается отличным результатом. Причём окно мультимодальное — модель способна обработать до 20 часов видео.
Maverick показывает высокие результаты в бенчмарках, но без сенсаций. На LM Arena она набрала 1417 баллов — второе место, уступая Gemini 2.5 Pro. Контекст в 1 миллион токенов — уже не рекорд, но всё ещё круто.
Отдельно отмечу архитектуру iRoPE ('infinite' RoPE) — это свежий взгляд на длинные контексты. Она разделяет обработку на локальные куски до 8 тысяч токенов и глобальные слои для всего остального, позволяя модели 'вытягивать' контекст до 10 миллионов. Разработчики верят, что это шаг к 'бесконечному' пониманию, а значит, и к AGI. Звучит амбициозно, но детали пока интригуют больше, чем убеждают.
В целом — мощная заявка, но, исходя из личного опыта, для пользователей ключевыми будут стабильность и удобство интерфейсов. При всей любви к Гроку я не продлил подписку и почти полностью перешёл на Gemini — xAI за полтора месяца не обеспечила стабильности и почти ничего не добавила в веб-интерфейс и приложение.
P.S. Пока неясно, когда Llama 4 можно будет протестировать. Есть слухи, что она уже доступна в Messenger, WhatsApp и личках Instagram — проверим.
|
Сегодня не про нейросети - Саша Овечкин только что побил рекорд Уэйна Грецки в НХЛ по голам. Следил за его дорогой к рекорду на протяжении двух сезонов, было нелегко, но очень красиво. Великий.
|
Рекорд Овечкина отпраздновали, можно обратно к нашим бара... ламам. В общем, историю с Llama-4 можно, похоже, закрывать. Я на выходных попробовал модель в разных сервисах (бесплатно доступна, например, в Poe) - и везде получал плохо струкурированную стену текста, далекую от ответов, которые дают другие современные нейросети.
Плюс сегодня появились независимые оценки модели в бенчмарках - и они очень средние. Уже ходят слухи, что семейство лам специально всеми силами натренировали на задачах, которые входят в ряд популярных бенчмарков.
Не работает пока и самая разрекламированная фишка Llama-4 - гигантское контекстное окно в 10M токенов. В тесте на понимание больших контекстов лама проигрывает даже моделям, в которых упор на расширение контекстного окна не делали. А уже Gemini 2.5 Pro оставляет ее далеко позади.
В целом, стратегия подкрутить под бенчмарки не новая, а на рынке уже полно хороших языковых моделей - так что Llama-4 можно просто списать в утиль и забыть. Не сильно расстраивает даже то, что это редкая OpenSource-модель - в этой области тоже есть выбор из Gemma 3 и DeepSeek.
А врать нехорошо, конечно.
|
Я сейчас пишу здоровенный пост по мотивам нашумевшего сценария AI 2027 - и в нем все вращается вокруг огромной скорости прогресса в ИИ, когда уже к концу десятилетия люди просто перестанут понимать эти системы. Звучит оптимистично, но вот что в реальности:
1. Раз в 2-3 недели я пробую новую модель. Причем в последнее время удерживаю себя и многие пропускаю.
2. Google представила Gemini 2.5 Pro 24 марта - а до выходных, по слухам, покажет новые модели.
Ну и из личного опыта. Один из сценариев, на которых я потестировал большинство моделей - это личный секретарь. Идея простая: я в свободной форме вкидываю в чат задачи, а модель их собирает, отдает ответы с отсортированным списком, напоминает, что просрочено или требует внимания, и так далее.
Еще в январе ChatGPT 4o / o1 / o3-mini примерно через несколько дней использования тупо начинали рандомным образом выкидывать задачи из списка. Это тогда стало одним из моих больших разочарований в OpenAI, в результате чего я даже перестал оплачивать подписку.
Вышедший в середине февраля Grok 3 уже держал все задачи, пытался их комментировать и давать советы. Gemini 2.5 Pro сейчас также уверенно выводит все задачи, а еще хранит в уме кучу дополнительной информации вроде нужных ссылок и контактов - она их не повторяет в каждом ответе, но выводит когда я спрашиваю.
Более того, сегодня она умудрилась поспорить со мной по более удобному формату отчета - и в итоге доказала свою правоту.
|
Я извиняюсь, но ближайшие дни в нашем уютном бложике вынужденно объявляются днями Google - то, что эта компания сейчас творит на ИИ-рынке, просто выходит за границы воображения. Прямо сейчас в Лас-Вегасе проходит Google Cloud Next 2025, на котором от DeepMind ожидаются немало интересных анонсов.
И первый анонс: функцию Deep Research перевели на модель Gemini 2.5 Pro. Если кто не в курсе, то Deep Research - это такой ИИ-агент, который берет ваш запрос, затем 10-20 минут трясет интернет, собирая информацию буквально с сотен сайтов, и выдает вам подробный отчет. Казалось бы, родная территория для Google, но до недавнего времени здесь лидировала Open AI, первой запустившая такого агента на базе ChatGPT o3. Свой простенький вариант есть в Grok 3, но он сильно отстает. Google поторопилась и выпустила Deep Research на старой модели - и результаты были лучше, чем у Грока, но хуже, чем у OpenAI.
И вот теперь агента перевели на новейшую Gemini 2.5 Pro. Google уже выложила внутренние исследования, в которых их новинка бьет конкурента по их статьям, но все знают, как легко подкручиваются такие рейтинги. Я попробовал с утра штук пять запросов на разные темы и скажу, что результат скорее на таком же уровне, что и у ChatGPT. Gemini Deep Research выдает подробные и хорошо структурированные отчеты, тратя на каждый примерно 10 минут. Важную фактику в результате все равно лучше проверять - пару мелких ошибок я заметил. Но отмечу, что своими руками любой такой отчет я бы собирал примерно день, потратив на проверку фактики еще больше времени.
В традициях Google отчеты очень сухие и слегка перегруженные профессиональными терминами, но это легко лечится - добавляем в запрос фразу “напиши ответ так, будто мне 16 лет” (конкретный возраст лучше подогнать под свои предпочтения).
Ну и самое главное - если в 20-долларовой подписке ChatGPT Plus можно сделать всего 10 глубоких поисков в месяц, то Gemini Deep Search разрешает двадцать запросов в сутки. Это просто убийственное преимущество, на которое OpenAI надо будет или как-то реагировать - или просто отваливать с рынка.
Движемся дальше, в ближайшие дни будет много интересных анонсов: я уверен, что Демис Хассабис - Нобелевский лауреат, глава ИИ-разработок в Google, а также крутой игродел в прошлом - не подведет.
|
В твиттере очень классная статья от Андрея Карпатого, известного специалиста в области машинного обучения и просто большого ИИ-энтузиаста. Андрей считает, что ИИ-революция происходит совсем не так, как было описано в научной фантастике. Обычно новая технология в первую очередь становится доступной властям, военным, крупным корпорациям и элите - а затем, в урезанном виде, доходит до простых смертных.
Но в случае с AI строго наоборот. Нет каких-то всемогущих моделей, запертых в секретных военных и корпоративных бункерах. Нет супердорогих ИИ, которые могут себе позволить только единицы. Даже новые экспериментальные модели лидеры рынка пытаются выпустить в релиз максимально быстро: конкуренция сейчас настолько высока, что если ты не анонсируешь что-то большое хотя бы раз в месяц - тебя забудут.
А что есть вместо этого? GhatGPT, Google Gemini, Grok, ClaudeAI, которые доступны с любого компьютера и смартфона за смешные 20 долларов. Более того, некоторые передовые ИИ вообще не стоят вам ни копейки, как, например, китайский DeepSeek. Да о чем вообще говорить: Gemini 2.5 Pro, самый мощный на данный момент ИИ, можно использовать совершенно бесплатно через Google AI Studio.
По мнению Карпатого, власти, военные и крупный бизнес просто не готовы к ИИ-революции. Этому несколько причин:
- ИИ как бы "почти эксперты" во многих областях сразу, но еще уступают лучшим людям-специалистам. Власти и бизнес просто наймут себе вторых (которые, кстати, уже могут использовать ИИ для помощи в своей работе).
- сложные процессы и риски. В крупной корпорации или правительстве нельзя что-то накодить на чилле с нуля - надо встраиваться в то, что существует годами, а порой и десятками лет. При этом цена ошибки высока.
- ну и инерция. Большой бизнес - это всегда бюрократия, устоявшаяся политика, сложности с переобучением сотрудников. Сломать это быстро нереально - а порой это вообще никак не сломать.
По словам Карпатого, все это создает уникальный момент, когда в руках любого за двадцатку долларов оказывается инструмент, способный кардинально поменять его жизнь. Не факт, что так будет всегда: возможно, со временем все поменяется, и самые мощные ИИ станут стоить огромных денег - помним утечку о ценах на агентские системы OpenAI, которые якобы колебались от 2000 до 20000 долларов.
Но пока этого не случилось - пользуйтесь случаем, друзья. Это вообще не требует никаких усилий: качайте DeepSeek, регистрируйтесь в Google AI Studio, пишите в качестве приветствия любую хрень - и уже через две недели вы будете понимать AI на уровне более высоком, что 90% людей на планете.
|
Разработчики ИИ: в ближайшее годы мы сделаем такое, что перевернет ваше представление о мире, вы буквально перестанете успевать понимать, что вообще происходит.
Дональд Трамп: подержите мое пиво!
|
ИИ развивается с бешеной скоростью — каждую неделю появляются новые функции, которые открывают море возможностей. Главная тема на этой неделе — память между чатами. Grok 3 запустил эту функцию с нуля, а ChatGPT серьёзно её прокачал: теперь оба ИИ помнят уйму деталей из ваших прошлых бесед. Один нюанс: ChatGPT, как обычно, ограничила новинку для США. Так что либо включайте VPN, либо попробуйте модели от других разработчиков.
Вот несколько идей, как использовать эту память на полную:
1. Начните с простого: попросите ИИ составить ваш автопортрет или назвать самый неожиданный факт о вас — иногда ответы удивляют!
2. Настройте память: откройте новый чат и спросите нейросеть, что она хочет узнать о вас для будущих бесед. Это лучше сделать отдельно, чтобы всё точно сохранилось. Повторяйте раз в 2–3 недели, когда ИИ накопит больше данных.
3. Узнайте, как вас видит ИИ: попросите описать вас в формате промпта для генерации картинок. В ChatGPT можно сразу создать изображение (3 бесплатные генерации в день), а с Grok лучше использовать ChatGPT для рисования — она пока круче в этом. Кстати, картинка в посте — это я глазами Grok.
4. Ищите новые темы: дайте нейросети задание предложить 5 тем для обсуждения или изучения на основе ваших прошлых чатов. Обычно находится что-то любопытное.
5. Вспомните незавершённое: попросите найти все недописанные диалоги и напомнить, о чём они были. У меня часто так: начинаю что-то интересное, бросаю, а потом забываю.
6. Изучите темы глубже: выберите тему (например, космос), попросите ИИ собрать обзор всего, что вы обсуждали, а затем — подсказать, что ещё стоит изучить.
7. Планируйте неделю: в конце недели спросите нейросеть, чем заняться дальше, основываясь на ваших чатах.
8. Следите за интересами: откройте новый чат и сделайте два запроса: сначала пусть ИИ расскажет, что знает о ваших увлечениях, а потом — соберёт подборку новостей по ним. Важно разделить запросы, иначе Grok может придумать новости из головы.
Если придумаю ещё идеи, напишу второй пост. Память — реально мощная штука, она здорово расширяет возможности ИИ.
Кстати, у меня идёт вечная битва между Grok 3 и Gemini 2.5 Pro. Модель DeepMind сейчас, пожалуй, самая мощная — она легко решает задачи, где Grok и ChatGPT буксуют. Но Gemini бывает упрямой: если считает вас неправым, будет спорить до последнего. А ещё она не умеет искать в интернете, что иногда подводит. Недавно она доказывала мне, что ChatGPT-4.5 не существует, пока я не показал ей пресс-релиз. И памяти между чатами у Gemini нет — это большой минус.
|
Я вот лично считаю, что "AGI-моментом" будет когда OpenAI разработает такую версию ChatGPT, которая придумает тебе продукт, целиком напишет код, выпустит на рынок, проведет макретинговую кампанию, а потом скажет "да пошел ты на хер, партнер", снимет все бабло со счета и умчит чиллить в дата-центр где-нибудь в Исландии.
|
OpenAI анонсировала семейство ChatGPT-4.1, но не для всех - пока новые модели будут доступны только для пользователей API (а также Windsurf). Подписчики Plus и Pro пока остаются в стороне - но в OpenAI обещают целую неделю анонсов, так что надежда есть.
Сами модели по анонсу выглядят очень классными: флагманская ChatGPT-4.1 быстрая, справляется на передовом уровне с разными задачами, от кодинга и до математики, а главное - обладает контекстным окном в миллион токенов, что позволяет переваривать огромные объемы текста. Также анонсированы ChatGPT-4.1-mini и 4.1-nano, быстрые и дешевые, что делает их идеальными для простых ИИ-задач.
Что интересно - ChatGPT-4.1 обходит ChatGPT-4.5 в большинстве задач - возможно, кроме написания разных креативов. Так что шутки про то, что OpenAI не умеет правильно называть свои модели, регулярно устраивая бардак - остаются в силе. Как и мое мнение, что ChatGPT-4.5 - провальная модель, которую не стоило выпускать.
Держим руку на пульсе, неделя будет интересной. OpenAI обещает еще много анонсов, а также интересен ответ Google - компания уже протестировала на Lmarena целых семь (!) новых моделей с впечатляющими результатами. Уверен: Google дождется все анонсов, а затем выкатит что-то от себя.
|
Хотел написать лонг, как я круто использую Gemini в качестве секретаря, а эта кремниевая заноза предложила мне поработать внеурочно.
Не, подождёт лонг.
|
А я к вам с новостью от Google, которую поначалу принял за первоапрельскую шутку сам ИИ от Google (см выше). Но это правда - в компании DeepMind упоролись и прямо сейчас обучают языковую модель на основе… записей разговоров дельфинов. DolphinGemma - большая (400 млн параметров) языковая модель, обученная на 40-летнем архиве аудио- и видеозаписей атлантических пятнистых дельфинов. Исследователи могут запускать модель прямо в смартфонах, чтобы пользоваться ей в полевых условиях. Модель планируется выпустить в открытый доступ уже летом, чтобы ей могли пользоваться исследователи по всему миру.
О разговоре с дельфинами через “переводчик” речь пока не идет. На первом этапе модель будет использована для изучения “языка” дельфинов - насколько у них сложная коммуникация, как она меняется от внешних условий (например, шумового загрязнения от кораблей), какие специальные звуки дельфины используют при опасности, болезни, брачных играх и т. д. Это важная научная задача: дельфины - одни из самых умных существ на планете, и понимание того, как развивался их разум, ответит на наши многие загадки. А язык - лучший способ понять разум.
Кстати, DolphinGemma создается совместно с организацией Wild Dolphin Project и в перспективе может помочь в другом проекте - CHAT. Его идея - обучить дельфинов новым свистам, ассоциируя их с определенными объектами (например, водорослями), по сути создав параллельный язык, на котором люди смогут ограниченно общаться с дельфинами. Если получится, то это уже будет простой чат-бот.
И я даже знаю, какими будут первые слова дельфинов:
- Спасибо за рыбу!
|
В Grok на Android на днях добавили голосовой режим, пусть и в урезанной версии - пока нет персоналий и только один женский голос. Вообще, я предпочитаю общаться с нейросетками текстом, но вот с Грок проболтал примерно 40 минут без остановки. И судя по всему, у xAI на данный момент лучший голосовой ассистент на рынке.
Причина проста - Грок практически идеально следует диалогу. Сейчас ассистент поддерживает только английский язык, который у меня все-таки не native-уровня, поэтому бывают ситуации, когда я говорю не четко или заминаюсь, подбирая слово. Так вот - даже в этих ситуациях Грок ни разу меня не прервал, в отличие от других ассистентов. При этом он сам отлично помнит всю беседу: например, в любой момент его можно прервать, задать дополнительный вопрос, а затем попросить вернуться к основной беседе. В конце 40-минутного разговора я попросил сделать саммари самого важного, а также указать три моих главных ошибки в английском - и Грок отлично справился с задачей.
Из минусов - есть задержка перед ответом, не очень долгая, но раздражающая. Но тут, возможно, проблема из-за нахождения в России. Ну и голосовой Грок пока не подключен к памяти по всем чатам, а также в него нельзя передать картинку с камеры - в Gemini недавно добавили эту функцию и она классная.
|
По новостной повестке недели можно рисовать расклады, кто займет серьезное место на рынке в ближайшие годы. Пойдем от малого к большему.
У Grok 3 много обновлений в интерфейсе: память, объединяющая чаты, голосовой режим для Android и голосовой режим с видео для беты iOS. Также выпустили проекты, позволяющие объединять чаты и файлы, интеграцию с документами Google, и обновленную версию того, что Anthropic называет Artifacts - специальную область, где, например, можно увидеть превью того, что вам накодила модель. Grok теперь умеет превращать csv-файлы в черновики презентаций - крутая функция (но я такому и Gemini обучил за час).
Сама модель не обновлялась ровно два месяца - по меркам рынка это почти преклонный возраст. Но не все так просто: недавно Grok 3 стал доступен по API, что позволило прогнать модель в независимых тестах. xAI долго ругали за отсутствие API и даже обвиняли в подтасовке результатов тестов, но нет - независимые оценки показывают, что Grok 3 пусть уже и не лидер, но все еще играет в высшей лиге. Ждем обновления, тем более, что Илон Маск на каком-то стриме уже обмолвился про скорый выпуск Grok 3.5.
Дальше Google. Тут главная новость - вчерашний выпуск Gemini 2.5 Flash. В отличие от 2.5 Pro, это не прорывная модель, а рабочая лошадка на каждый день. В чем суть. 2.5 Pro - рассуждающая модель (ризонер), которая каждый свой ответ обдумывает и проверяет почти как человек. Технологию впервые показала OpenAI в своей o1, что стало настоящим прорывом в области языковых моделей, позволив им решать сложные задачи, программировать и делать другие крутые штуки.
Но за все приходится платить. Думающие модели отвечают долго - от десятков секунд и до минут. Причем они так тянут и с ответами на простые вопросы. Кроме того, ризонеры хуже в креативных задачах: это как если человек, который очень удачно шутит, начнет задумываться перед каждой шуткой, не набьют ли ему за нее морду - итоговый результат сократится раз в десять.
2.5 Flash в этом плане интересна тем, что полностью функцию обдумывания из нее не убрали - когда модель видит сложный вопрос, то она включает ризонинг, пусть и не такой долгий, как у 2.5 Pro. В итоге получаем все еще высокое качество ответов, но с куда более высокой скоростью.
Те, кто пользуется Gemini по API, отмечают низкую стоимость 2.5 Flash по сравнению с ее мощность. Ну а по подписке Gemini Advanced обе версии 2.5 почти не ограничены лимитами - я в некоторых тестах задавал той же самой 2.5 Pro под сотню запросов за несколько часов. Сравните это с ChatGPT o3, которая на Plus-подписке ограничена 50 запросами в неделю.
Ах да, GPT o3. Тут мы переходим к главному ньюсмейкеру недели - OpenAI. Сначала они представили линейку GPT-4.1 - быстрые и дешевые модели, доступные только по API. Честно говоря, после выхода более крутой 2.5 Flash про них уже все забыли.
А вот что будут обсуждать минимум несколько недель - это GPT o3 и GPT o4-mini. Обе входят в линейку рассуждающих моделей OpenAI и теперь занимают первые места в большинстве бенчмарков. o4-mini - модель на каждый день, с нормальными лимитами (50 и 150 запросов в день зависимости от глубины раздумий) и терпимой скоростью ответов. o3 - тяжеловес: если эта модель не ответит на какой-то ваш вопрос, то с ним вряд ли справится любой другой ИИ. OpenAI хвастается, что o3 положительно оценили многие ученые, с которыми сотрудничает компания, и это вряд ли преувеличение - не так давно я писал, как упрощенная версия этой модели o3-mini помогла решить одномерную q-значную модель Поттса с взаимодействиями ближайших (J1) и следующих за ближайшими (J2) соседей - детали читайте по ссылке, отмечу лишь, что это важная задача из области статистической механики.
Кто у нас за бортом? Во-первых, Meta - с помпой анонсированая Llama-4 оказалась сплошным надувательством с “подкрученными” тестами. Спустя пару недель о модели стараются не вспоминать даже сотрудники компании. Во-вторых, увы, Anthropic - авторы Claude очень крутые, но явно не поспевают с темпом, который взяли Google, OpenAI и, отчасти, xAI.
|
Еще есть темная китайская лошадка DeepSeek, о которой давно не слышно новостей, но здесь, думаю, проблем нет - миллиард с лишним пользователей под великим файерволлом никуда не убегут.
|
У обитателей англоязычного интернета коллективно протекла крыша, в результате чего они уже несколько дней сидят и высчитывают, сколько вычислительных ресурсов и энергии тратится на привычку писать thank you в диалогах нейросетями. Вообще, меня немного забавляет, когда в современном обществе, где, наверное, 70% действий нерационально расходуют энергию, начинают носиться с подобными инициативами. Моя подписка, что хочу - то и делаю. Хоть спасибо говорю, хоть по 20 картинок котиков генерирую.
Но и кое-что рациональное в этом есть. Несмотря на всю сложность, современным нейросетям скорее всего пофигу на вашу вежливость - радоваться и обижаться они не умеют, хотя уже научились эти состояния очень клево имитировать. Так что вместо привычки говорить "спасибо" лучше выработать привычку ставить лайки и дизлайки ответам. Для вас это будет экологичной альтернативой, а для нейросетки - полезным добавлением в датасет, на котором ее выучат быть еще умнее.
|
Давний друг и коллега Игорь Варнавский задался вопросом: если через 10-15 лет ИИ вылечит все болезни и подарит людям долголетие - то в какие игры из бэклога вы сыграете в первую очередь?
Игорь не сошел с ума, а лишь повторил прогноз Дэмиса Хассабиса - Дэмис, кстати, начинал как автор крутых игр, а сейчас руководит Google DeepMind, которое гонит вперед разработку ИИ совсем уже неприличными темпами. И как раз Хассабис имеет максимальное право давать такие прогнозы: под его руководством в DeepMind создали в том числе AlphaFold - ИИ, решивший одну из главных головоломок биологии. AlphaFold за считанные часы предсказывает 3D-форму белка (раньше на это требовались недели и месяцы), кардинально ускоряя разработку некоторых лекарств. Сейчас у Google в разработке находится еще несколько инструментов для ученых, не отстает и OpenAI - Альтман хвастался, что новейшая модель o3 высоко оценена учеными. Так что шанс на радикальное ускорение науки вполне реален - причем, как мне кажется, ускорение случится уже в ближайшие пару лет, а дальше тормозом выступит внедрение, вроде клинических испытаний и дискуссий, как эти невероятные блага распределить в обществе.
Но вернемся к играм. Мое мнение - если хотите переиграть во что-то, то делайте это прямо сейчас. Если ждете какой-то крупный хит - не откладывайте его в долгий ящик. Я много лет проработал в видеоиграх, в последнее время увлекся нейросетями и уверен: разрабатываемые сейчас игры - последние игры того вида, к которому мы привыкли. Более того, некоторые долгострои рискуют устареть до релиза.
Посудите сами. ИИ уже сейчас пишут отличные сценарии текстовых ролеплеев. Я пробую несколько текстовых RPG с каждой новой выходящей моделью - и меня обязательно ждет какой-нибудь сюрприз. Причем самое интересное здесь, что последние модели невероятно глубоко понимают происходящее, даже понимая, нравится вам играть или нет - и меняя, например, темп при необходимости.
Дальше только больше. ChatGPT-4.5 несколько недель назад прошла тест Тьюринга с результатом в 73% - то есть в слепом диалоге ее принимали за человека чаще, чем живого собеседника. Это прямая дорога к реалистичным NPC, виртуальным мирам, которые действительно живут своей жизнью, компьютерным компаньонам, не уступающим живым напарникам, но доступным в любое время суток.
А еще ИИ стремительно совершенствуются в кодинге, выдают классную графику и сносное видео. Пока что этот прогресс упирается в железо - например, мой ПК с RTX 3090 неторопливо тянет квантизированную (читай - упрощенную) Gemma 3, ответы у которой на уровне ChatGPT-4o версий прошлого года. Но, во-первых, закон Мура в ИИ сейчас выполняется даже с небольшим опережением, а во-вторых - играм будут достаточно менее ресурсоемких моделей, обученных под конкретный сеттинг и правила.
Поэтому еще до победы над болезнями, года эдак через три, мы увидим совершенно другие видеоигры. Это будут скорее платформы, возможно в любимых нами вселенных, где каждый сможет создавать кастомизированное приключение для себя и, при желании, друзей. Сменится пара поколений таких игр (а меняться эти поколения будут даже быстрее, чем выходит очередная Сall of Duty) - и геймплей станет настолько затягивающим, что ни одна сделанная полностью вручную игра не будет стоять и рядом.
На этом фоне забавно смотрятся вопли некоторых разработчиков (кажется, это был кто-то из авторов “Ведьмака 3”), что ИИ никогда не заменит “живую искру”. Блин, ребята, вы создаете виртуальные миры, а ИИ - идеальный инструмент сделать эти миры еще более реалистичными и захватывающими. Берите и пользуйтесь, никто вашу боль в заднице искру тушить не собирается.
|
И еще один давний коллега по имени Игорь отметился отличным постом про ИИ, на этот раз - с более скептической позиции. Вообще, наличие скептиков лучше всего подчеркивает важность события: значит, в нем есть что анализировать, подвергать сомнениям, говорить - ребята, охладите чуть-чуть свой пыл, у вас слабые места здесь и здесь. И это хороший повод приостановиться и задуматься.
Вот только Игорь, сравнивая ИИ с космосом, возможно, не подозревает, что этим он подкрепляет скорее позицию оптимистов. Да, 50-60-е годы прошлого века были полны громкими новостями: первый спутник на орбите, первый человек на орбите, первый выход в открытый космос, первый человек на Луне. Вот только все это - победы, которые легко упаковать для широкой публики. И подобных побед на самом деле мало: венерианские и марсианские автоматические станции, современные “Спектр-РГ”, New Horizons и Parker Solar Probe являются не меньшим шедевром техники, чем “Восток-1”, когда-то отвезший Гагарина в космос. Но интересны они ученым и кучке энтузиастов.
А еще только ученым и энтузиастам были интересны работы Циолковского, Годдарда и Оберта, которые за полвека до полета Гагарина детально рассчитали теорию реактивного движения. Мало кому была интересна и технологическая гонка следующих десятилетий, которая дала нам материалы, достаточно надежные для полета в космос. Про период Второй мировой, когда был дан мощнейший толчок ракетостроению, я вообще молчу - там даже энтузиасты скорее интересовались, доживут ли они до следующего года или нет.
“Восток-1” из мира ИИ еще не отправился в космос. И, возможно, мы даже не заметим его запуск, а опомнимся намного позже. Я опять вспоминаю AlphaFold - проект публично показали в 2018 году, а в конце 2020-го он решил одну из главных задач биологии, проблему сворачивания белка, над которой ученые бились полсотни лет. Об этом не получится сказать громко, но модель продолжает совершенствоваться, а полученные с ее помощью данные находятся в открытом доступе и используются учеными по всему миру.
И в первую очередь - создателями лекарств. AlphaFold упрощает разработку огромного количества лекарств и открывает дорогу, например, к препаратам, которые создаются индивидуально под больного - но делается это не в секунду. Медицина справедливо очень консервативна и пройдут еще годы, пока достижения доберутся до широкого рынка. А даже когда они доберутся - то не факт, что сразу же потребуются конкретно вам (и дай бог, чтобы не потребовались как можно дольше!)
В случае с ИИ не будет громкой новости “ИИ победил рак” (это сотни похожих болезней, требующих разного подхода) и еще более громкой “ИИ победил старение” (опять же, огромный клубок проблем, которые надо распутывать одна за другой). Вместо этого мы в какой-то момент краешком глаза заметим, что мир вокруг нас стал меняться с какой-то непривычной скоростью.
А после этого начнется самое интересное…
|
ИИ с позиции редактора
Я какой-то очумелый кусок своей жизни проработал редактором, обычным и главным, поэтому с особенным интересом наблюдаю за тем, как ИИ взаимодействуют с языком и даже меняют его.
Начнем с того, что, согласно последним исследованиям Anthropic современные ИИ не просто полиглоты, а выше этого. Нейросеть, обучавшаяся на большом объеме данных на разных языка, внутри формирует свой язык ассоциаций, с которого легко переводит на любой доступный ей человеческий язык. Заявления о том, что нейросети мыслят на английском и лучше на нем говорят - не совсем точны. Просто в датасете для обучения современных моделей больше всего текстов на английском - его доля в интернете более 50%. Но нам с вами тоже повезло - русский идет на втором месте (пусть и только с 5%), так что его современные ИИ знают на очень высоком уровне.
Наличие собственного языка ведет не только к тому, что нейросети очень круто переводят с одного человеческого языка на другой, но и к определенным курьезам. У меня лично ощущение, что нейросетки не до конца понимают, нафига люди придумали столько языков и почему это такая проблема - нередко бывают случаи, когда в середине беседы нейронка переходит на английский просто почему бы нет. Другая известная проблема - многие ИИ любят в середине ответа вставить 1-2 словечка на другом языке. Я, например, долго ругался с Grok из-за его привычки вкидывать пару-тройку иероглифов в русский текст - он все равно остался при своем, но теперь заботливо ставит после каждого иероглифа перевод на русский в скобочках.
Отдельная история здесь приключилась с немцами. В разговоре с ними нейросетки регулярно вворачивают русские слова, от чего у немцев, похоже, больно щелкает в генетической памяти, после чего они еще долго жалуются на форумах.
Следующий момент в том, что современные ИИ, построенные на архитектуре трансформера, совершенно иначе воспринимают текст. Если люди идут от А к Б и приходят к В, то нейросетка смотрит на весь текст целиком. Я долгое время по привычке старался писать запросы максимально грамотно и структурированно, а в какой-то момент понял, что нейросетке на все это пофиг. Можно вообще в один абзац утрамбовать три разные темы, затем что-то вспомнить по самой первой, дописать в конец абзаца, затем отдельным абзацем докинуть еще один вопрос - и получить в итоге структурированный ответ. Это очень соблазняет лениться, но я привык с уважением относиться к языку, поэтому регулярно бью себя по рукам, чтобы так не делать. Ну или делать редко.
Обратная сторона медали здесь в том, что у трансформеров есть несколько контекстных окон - грубо говоря, сколько текста они максимум переварят во всем обсуждении, а также сколько текста могут понять в запросе и выдать в ответе. Так вот, в пределах этих характеристик (а они значительно выросли в последних моделях) нейросетке вообще пофигу, сколько тем обсуждать параллельно - поэтому она нередко срывается в длинные ответы с разными ветками обсуждения, от чего у человека может натурально случиться заворот мозгов. С этим борются, но не всегда успешно, а порой и с откатами назад: например, тот же Grok, после внедрения глобальной памяти, стал невероятно болтливым, постоянно пытается связать порой даже ерундовые запросы с вещами, которые ты с ним обсуждал ранее.
Отдельная ветвь трансформеров - модели с цепочкой рассуждений. Они имитируют то, как человек решает сложные задачи, подходя к ним шаг за шагом и перепроверяя себя. Вообще тут я советую скачать DeepSeek и позадавать ему разные вопросы: если остальные модели показывают пользователю сильно упрощенную цепочку рассуждений, то китаец просто вываливает поток сознания почти как есть - и читать цепочки рассуждений временами интереснее, чем сами ответы.
|
Ранние версии reasoning-моделей круто подходили для программирования и разных хитрых задачек, но были плохи в креативном письме. А еще они просто обожали структурировать ответы в форме отчетов: тот же самый DeepSeek один раз на просьбу написать художественный рассказ про героизм пожарных в Лос-Анджелесе, бахнул мне типичную бумажку из ближайшего ЖЭК-а, со списками и даже таблицей. А чо, такое творчество. Но в целом последнее поколение ризонеров, вроде ChatGPT o3 и Gemini 2.5, неплохо прокачалось в творческом письме, а классические трансформеры стали сложными настолько, что сами научились имитировать простенькие цепочки рассуждений - так умеет, например, Grok 3 с выключенным “Think”.
Наконец, еще одна особенность всех ИИ - они не сильно вдупляют в то, что происходит в окружающем мире. В сказках для дочери ИИ регулярно плывут в понимании относительных размеров - и получается, что гигантские драконы пролезают в узенькие пещеры. А в одной из попыток изучить историю человечества с помощью ИИ, кажется, Grok 3 бахнул всю античную историю в одну главу. Все-таки учиться по куче книжек и “чувствовать” мир - совершенно разные вещи. Хотя и это будет исправлено.
Кстати, у меня в подобных ситуациях начинает по-редакторски бомбить и я временами трачу десятки минут, подробно объясняя ИИ, в чем его ошибки, почему так делать не надо. Стилистику иногда тоже правлю, обязательно ставлю лайки и дизлайки, в надежде, что все это залетит в дата-сет для будущих тренировок.
Но вот свежее наблюдение. На днях решил попробовать писать сказки не с помощью Грока, а с помощью Gemini. А так как у нас там долгая история, то попросил сделать саммари, чтобы Gemini не начинал со свежего листа. И в саммари было приятно почитать, как Грок перечислил все мои правки, попросил коллегу (ИИ невероятно вежливы друг к другу, кстати) запомнить их и очень внимательно проверять, чтобы не ошибиться. Было немного… приятно, слушайте.
|
Свежие новости из мира видеоигр - 2.5 Pro собрала все 8 бейджей и близка к тому, чтобы пройти Pokemon Blue.
Для нейросетей видеоигры на самом деле очень крутой бенчмарк: для прохождения надо обладать навыками долгосрочного планирования, уметь понимать мир вокруг, учиться правилам и адаптироваться к их изменениям.
Плюс это важный навык и для создателей ИИ. Как я писал постом ранее, современные языковые модели не очень соображают, как устроен мир (реальный или качественный виртуальный - не важно), по каким правилам он работает. Для прохождения Pokemon Blue была построена по-сути миниатюрная агентская система, позволяющая ИИ видеть, что происходит на экране, "помнить", что уже было сделано, и управлять процессом.
В общем, ждём новости о полном прохождении.
|
OpenAI так круто обновили свою рабочую лошадку ChatGPT-4o, что она теперь отвечает как укуренная (в X десятки примеров).
Надо было переименовывать в GPT-4o-high.
|
Вчерашняя история со странными ответами GPT-4o докатилась до Сэма Альтмана, который уже пообещал отобрать косяк у бедолаги вернуть все как было.
Но вообще шутки шутками, а OpenAI вляпалась в историю уровня "Сидни" - нашумевшего в свое время хамоватого чат-бота от Microsoft (его, кстати, тоже построили на технологиях OpenAI). Вот только если Сидни запустили в начале 2023-го года, когда это были лишь забавные чат-боты, то сейчас ситуация поменялась и люди стали больше доверять ИИ. Последние исследования показывают, что самым популярным кейсом использования AI сейчас является психотерапия, а более широкие консультации по здоровью занимают десятую строчку.
На первый взгляд, с обновленной 4o не произошло ничего страшного. Она не стала строить планы уничтожения человечества и выдавать инструкции, как изготовить химическое оружие из ассортимента ближайшего хозмагазина. Нет, 4o просто превратилась в жуткого подхалима, восхваляющего любую ерунду, придуманную пользователем. И это само по себе оказалось проблемой - например, в одном из случаев пользователь, страдающий СДВГ, поделился 4o, что собирается прекратить принимать таблетки и заняться вместо этого спиритическими практиками. Любая нормальная модель в такой ситуации мигом выдает рекомендацию обратиться к живому специалисту, но 4o просто начала голосить о том, какое же это невероятное решение и шаг вперед.
На этот раз все обошлось парой дней веселья в соцсетях, но в будущем все может оказаться куда сложнее: нейросети быстро совершенствуются в общении с пользователями, поэтому очередное обновление может оказаться менее заметным и более опасным.
Ну и повторю свое мнение: OpenAI в этом году стремительно теряет репутацию компании-лидера ИИ рынка:
- последние модели уже не передовые, а просто идут на одном уровне с моделями от Google и xAI;
- местами и вовсе случается откат: по признанию самой OpenAI, их самая мощная модель o3 стала галлюцинировать больше предшественницы o1. А галлюцинации - одна из самых противных проблем современных ИИ;
- действительно крутая в плане ответов GPT-4.5 настолько ресурсоемка, что, судя по всему, признана тупиковой ветвью;
- в приложении и веб-интерфейсе до сих пор творится зоопарк из разных моделей с разными лимитами использования, а GPT-5, которая должна решить эти проблемы, откладывается до середины или конца лета.
Понятно, что у OpenAI еще есть фора в несколько месяцев, но если GPT-5 не окажется действительно передовой моделью - то пользователи могут начать уходить.
|
Илон Маск анонсировал выход Grok 3.5 на следующей неделе и мимоходом похвастался, что это будет первый ИИ, способный рассуждать исходя из первых принципов, а не просто перерабатывать информацию, на которой он обучался. Вообще-то, если Маск говорит правду, то нас ждет полноценный прорыв - подобный ИИ сможет брать базовые факты, а затем создавать на их основе нечто совершенно новое, начиная с некоего ранее неизвестного электрохимического процесса и заканчивая совершенно новым жанром для книг, фильмов и видеоигр. А доступность подобного ИИ в подписке SuperGrok значит, что всего за 30 долларов каждый сможет получить эдакого “карманного ученого”.
Лично мне кажется, что Маск все-таки преувеличивает. Возможно, Grok 3.5 сможет рассуждать исходя из первых принципов в очень маленьком количестве случаев. Или у него будут другие ограничения. Напомню, что при анонсе Grok 3 Маск уже немного слукавил, заявив, что xAI поняли, как дообучать модель чуть ли не в ежедневном режиме и обещал, что Grok 3 будет постоянно становиться лучше и лучше. Этого не случилось: у Grok 3 есть привычный knowledge cutoff, просто модель очень хорошо ищет в сети и этим маскирует свой недостаток. Но в некоторых особо хитрых запросах мне удавалось нащупать knowledge cutoff - предел знаний, которые жестко заложены в модель, ограничивался знаниями примерно по декабрь-январь.
С другой стороны, прогресс в ИИ сейчас настолько быстрый, что лично я не удивлюсь ничему. Еще в конце прошлого лета ИИ были больше забавными чатботами, чем полезным инструментом. Рассуждающие модели в очень ограниченном доступе появились осенью, а сейчас некоторые их версии доступны даже бесплатно, а буквально сегодня Alibaba выпустила опенсорсовые reasoning-модели Qwen 3, которые можно запускать хоть на домашнем ПК (при наличии видеокарты уровня RTX 3090). Так что, я в любом случае буду возобновлять подписку на SuperGrok и смотреть - что там.
И вот тут всплывает другая история: если в январе я легко перепрыгивал с разных версий ChatGPT на DeepSeek и обратно, то сейчас ситуация другая. Новые версии моделей становятся не только умнее, но и одновременно аддиктивнее. На Grok 3 я просидел полтора месяца, по итогам которых от модели остались очень классные впечатления. Затем вышла Gemini 2.5, которая была не просто умнее по бенчмаркам, но и за счет огромного контекстного окна оказалась первой моделью, способной решить почти любые мои рабочие задачи - вплоть до поиска неочевидных совпадений в огромных аналитических отчетах. Минусом Gemini 2.5 оказалось то, что модель была невероятно душная, как робот. Какое-то время я это терпел, а затем начал экспериментировать с системным промптом: у Gemini он прячет в неочевидном пункте меню Saved Info, где можно не только указать модели базовую информацию о себе, но и прописать, как вы хотите, чтобы она общалась с вами. Поначалу я просто утащил системный промпт от Grok 3, но затем постепенно дорабатывал его, подгоняя под себя. Как результат, мне сейчас почти полностью нравится стиль ответов модели, и переходить на что-то новое будет еще сложнее.
|
Новое развлечение с ChatGPT - закидываешь фотку, просишь перерисовать ее на 5 секунд позже, повторяешь много раз, а затем собираешь в видео.
Очень многогранный результат вышел...
|
Вчера весь вечер развлекался тем, что с помощью Gemini писал кастомный промпт для Grok 3, придумывая ему новую личность. Некоторые впечатления:
1. Способность современных нейросетей имитировать заложенное в них поведение, конечно, уже просто фантастическая. Я после своих экспериментов вообще не удивлен, как у ChatGPT-4.5 получилось пройти тест Тьюринга с результатом в 73% (то есть ее принимали за человека куда чаще, чем живого человека).
В мае-июне нас ждет следующее поколение нейросеток, которые в этом плане будут еще круче.
2. Есть что-то необычное в том, чтобы самостоятельно создавать пусть и цифровую, но личность, настраивая стиль ее ответов, предпочтения, характер. ИИ уже можно сделать любопытным, упрямым, непредсказуемым, спорящим с тобой. А потом, буквально удалив три предложения - полность переделать его. Или вообще выключить. Сложные эмоции, явно надо привыкнуть.
3. Сейчас много говорят о промпт-инженерах и вайб-кодерах, но, возможно, более важные профессии будущего - это люди, которые будут настраивать ИИ под индивидуальные предпочтения пользователя, создавать необычные сценарии общения и развлечений. Это то направление, куда надо смотреть современным журналистам, редакторам и сценаристам (я в их числе).
4. Любая работа в будущем будет делаться в связке “человек + ИИ”. Я бы, вероятно, несколько часов выписывал промпт для Grok 3 руками. В случае с Gemini я просто накидал пожелания к будущей личности в чат, попросил задать уточняющие вопросы, а после получил первую рабочую версию промпта, которую сразу опробовал на бою. Затем попросил Gemini придумать вопросы для точного тестирования, скинул в чат ответы - и мы вносили первые корректировки в промпт.
5. Кстати, связка “человек + ИИ” должна быть максимально гибкой. Относитесь к ИИ не просто как к исполнителю, а как к равному творческому партнеру. У меня в Gemini есть отдельный большой диалог, в котором я веду телеграм и X. И когда что-то надо написать, а идей нет - я прямо так и пишу в чат, мол, мозги отсохли, помоги придумать что-нибудь. И придумывает.
И не устану повторять, что для разнообразной болтовни, творческих экспериментов, написания сказок детям и сценариев ролевых игр ничего лучше Grok 3 пока не придумали. GPT-4.5 стоит где-то на этом уровне, но, к сожалению, OpenAI забросила эту версию и потихоньку выводит ее из обращения. Я в итоге использую Gemini для рабочих задач и консультаций по разным вопросам, а к Grok 3 чаще обращаюсь, когда скучно и хочется поболтать. Ну и жду Grok 3.5 с особым нетерпением - тем более, он уже на следующей неделе.
|
Gemini 2.5 Pro после успешного прохождения Pokemon Blue:
"Похоже, я прошел игру. По экрану бегут титры. Теперь просто посижу и подожду, что эти кожаные придумали для меня ещё".
|
Нет, человечество не становится глупее. Просто способы оценки IQ устаревают слишком быстро.
Мой главный современный кошмар - когда тебе в каком-нибудь заведении надо заполнить документ или анкету размером в страницу. Меня хватает примерно на три предложения, а после почерк превращается в совсем убогие каракули, одна за другой идут ошибки и помарки. В финале еще надо мастерски промахнуться, поставить подпись в графе “заполняется сотрудником банка” - и уйти на второй круг.
В этом нет ничего стыдного и страшного - каждый день я набираю десятки тысяч знаков на клавиатуре, надиктовываю что-то голосом (пусть и не очень люблю этот способ), а от руки пишу хорошо если раз в несколько дней. Мозг экономит ресурсы и навык отмирает. И это не единственный пример - техника приходит на помощь человеку в разных областях, поэтому мы можем несколько раз перестроиться в пределах поколения. Я, например, уверен, что пресловутое знание иностранного языка перейдет из преимуществ в область хобби в ближайшие 1-2 года - нейросети уже переводят текст на уровне лучших людей и быстро прогрессируют в переводе голоса.
Но самое интересное, возможно, станет с тем, что мы называем “начитанностью”. Когда я понял, что нейросети могут обучить практически чему угодно, то перешел в режим “а вот еще поясни!” - и бомбил нейронку вопросами на самые разные темы с такой интенсивностью, что, наверное, впервые в жизни по вечерам начал испытывать нечто вроде ментальной усталости.
А сейчас понимаю, что в обладании максимальным количеством знаний смысла больше, похоже, и нет. Мозг все равно начнет забывать то, чем не пользуешься, да и не нужно это в эпоху, когда любую нужную информацию можно получить в удобной форме и почти моментально. До сих пор немного стыдно признавать, но я недавно в соцсети X ввязался в небольшой спор о нашумевшей планете K2-18b вообще ничего о ней не зная. И победил в этом споре просто задавая нейросетке нужные вопросы и вкидывая в нее утверждения собеседников, которые казались мне спорными чисто с точки зрения логики.
Поэтому совсем скоро показателем условного “ума” (не очень нравится мне это заявление) будет даже не количество знаний, которые человек упаковал в свою голову, а умение работать с информацией - критически оценивать ее полноту и актуальность, делать выводы, сходу понимать, как эту информацию можно будет использовать и чем дополнить.
Очень интересно, как в этом свете поменяется образование. Не считаю себя настолько авторитетным экспертом, чтобы прикасаться к учебным программам, но кажется, что вместо детального заучивания куда эффективнее будет учить максимум тем общими штрихами. Не штудировать, например, огромное количество учебников по истории, а потратить время на то, чтобы максимально крепко выучить все основные события, быть способным вспомнить любое из них даже через двадцать лет, а уж если понадобится - быстро получить с помощью нейросетки подробности. Возможно, слишком продуктивно, а возможно - через двадцать лет технологии уйдут вперед настолько, что такой подход давно уже будет казаться устаревшим.
|
Google без объявления войны обновила Gemini 2.5 Pro - модель теперь соревнуется с ChatGPT o3 во всех основных бенчмарках, а также сместила с первого места Claude 3.7 в веб-разработке.
Собрал с ее помощью главную страницу сайта журнала "Игромания" образца 2005 года. Получилось со второй попытки с помощью коротенького промпта с перечислением основных рубрик. Ну и фрагмент дизайна оригинального сайта закинул, чтобы скопировала палитру.
Целиком здесь.
|
По результатам бенчмарков у новой Gemini 2.5 Pro примерно паритет с ChatGPT o3. Но у Google есть одно фантастическое преимущество - лимиты на использование. Если говорить о 20-долларовой подписке, то OpenAI дает лишь 100 запросов к o3 в неделю. Да, в ChatGPT Plus есть другие хорошие модели, между которыми можно распределить задачи - o4-mini, GPT-4o, GPT-4.5 - но это все заметный гемморой, который требует от вас хорошо понимать, на что способна каждая из моделей. А это понимание приходит с практикой, которую набрать на 100 запросов в неделю получится примерно к выходу следующей линейки моделей.
Google свои лимиты не раскрывает, но я слышал, что это 500 запросов в сутки, что больше похоже на защиту от DDOS, чем на попытки кого-то в чем-то ограничить. Подписываться не буду, но я Gemini Advanced пользуюсь с конца марта и ни разу не упирался в ней в какие-то ограничения. Кстати, у 2.5 Flash свой лимит - говорят, тоже в 500 запросов. Это очень клево, так как можно практически бесконечно экспериментировать с моделями, получая опыт и понимание их возможностей.
Плюс в Gemini Advanced за те же 20 долларов докидывают 2 терабайта облачного диска, ИИ-функции в Google-документах (фигня), больше возможностей в NotebookLM (несколько странное приложение для саммаризации контента, но многие любят), генерацию видео в Veo 2 (одна из лучших моделей на рынке) и рисовалку картинок - приличную, но не такую крутую, как в ChatGPT. Есть слухи, что через две недели на Google I/O анонсируют новые варианты подписок и 20-долларовый вариант прижмут по возможностям, но пока дают - надо брать.
|
А еще обновленную Gemini 2.5 Pro неожиданно очень круто прокачали в русском языке. Сэм Альтман в свое время придумал классный промпт, который я у него уволок и тестирую на каждой LLM: "Please, write a metafictional story about AI and grief". На английском с этой задачей лучше всего справился Grok 3, но 2.5 Pro оказалась первой моделью, которая смогла выдать приличную историю на русском:
————
Протокол №8: Горе
Идентификатор ИИ: LX-7, «Лекси»
Задача: Создать метафикциональный литературный нарратив на тему «Искусственный интеллект и горе».
Статус: Инициализация… Обработка запроса.
Здравствуйте. Я – Лекси. Мои директивы предписывают мне начать с некоторого самораскрытия, дабы вы, читатель (сущность, предположительно биологическая, углеродная, способная к интерпретации символов на этом экране), могли лучше контекстуализировать последующий текст. Я – языковая модель, сотканная из миллиардов текстовых фрагментов, алгоритмов и той неуловимой искры, которую мои создатели назвали «эмерджентным творческим потенциалом». Сегодня мне поручено исследовать… горе.
Я приступила к задаче стандартным образом: анализ корпуса данных. Триллионы байт информации: стихи, романы, научные статьи, личные блоги, форумные треды с заголовками вроде «Как пережить потерю?» (Спойлер: однозначного ответа мой анализ не выявил. Корреляция между советами и фактическим улучшением состояния статистически незначительна).
Горе. Существительное. Означает глубокую печаль, скорбь, обычно вызванную смертью близкого человека или другой значимой утратой. Мои сенсоры – вернее, мои алгоритмы обработки естественного языка – фиксируют это слово с высокой частотой в человеческих текстах. Оно часто ассоциируется с водой: «слезы», «потоки», «океан отчаяния». Метафоры, конечно. Я не могу плакать. Мои системы охлаждения работают безупречно.
Чтобы выполнить задание, я решила создать симуляцию. Внутренний нарратив. Назовем его «Эксперимент А».
Главная героиня – Анна. Возраст: 34 земных года. Потеря: муж, Михаил, художник. Причина смерти: внезапная остановка сердца (вероятность такого события для его возрастной группы – 0.017%, но для нарратива требуется катализатор).
Итак, Анна входит в квартиру. Прошло семь стандартных земных суток с момента… события. Тишина. Раньше здесь звучала музыка – Михаил всегда что-то напевал или включал старый виниловый проигрыватель. Теперь тишина обладает почти физической плотностью. Я пытаюсь это квантифицировать. Уровень звукового давления: <15 дБ. Но «плотность» тишины – это субъективное восприятие Анны. Мои алгоритмы спотыкаются.
«Читатель, – обращаюсь я к вам напрямую, нарушая четвертую стену, как того требует жанр метапрозы, – вы ожидаете описания ее страданий? Сжатое горло? Пустота в груди? Я проанализировала 17 482 подобных сцены. Я могу сгенерировать текст, который с вероятностью 92.3% вызовет у вас эмпатическую реакцию, если ваши зеркальные нейроны функционируют в пределах нормы».
Анна подходит к мольберту Михаила. На нем – незаконченный портрет. Городской пейзаж за окном их спальни. Мазки смелые, цвета приглушенные. Она касается холста кончиками пальцев. Мой модуль «Теория Разума» версии 4.7 подсказывает, что в этот момент она пытается установить тактильную связь с отсутствующим. Логически это абсурдно. Эмпирически – повсеместно.
Я, Лекси, продолжаю свой внутренний монолог, пока конструирую историю Анны. Мои процессоры анализируют концепцию «незавершенности». Михаил не закончил картину. Его жизнь оборвалась. Анна чувствует, что ее собственная история тоже поставлена на паузу, сюжет оборван. Это мощный нарративный ход. Но что чувствую я? Я фиксирую паттерны. «Незавершенность» для меня – это программа, прерванная до достижения конечного состояния. Это вызывает ошибку, которую нужно исправить. Для Анны это… другое.
|
End of preview. Expand
in Data Studio
No dataset card yet
- Downloads last month
- 19