Сообщество - Искусственный интеллект

Искусственный интеллект

5 073 поста 11 487 подписчиков

Популярные теги в сообществе:

5

Ответ на пост «Есть эксперты по ии?»1

Ответ на пост «Есть эксперты по ии?»

Тут сразу букет вопросов:

- Как вы понимаете, что произвольный признанный вами носитель естественного интеллекта осознаёт себя? Как убедиться, к примеру, что он не "врёт"?

- А что если человеческая нейросеть под черепной коробкой такая же (ну может существенно более сложная) статистическая машина, которая оперирует статистикой накопленной при взрослении чтобы выстраивать свои рассуждения и руководствоваться ими для своих действий?

- А если не такая же, то в чем принципиальные отличия?

- Почему вы считаете принципиальными именно эти отличия?

- Даже если вот прямо сейчас у современных LLM нет потока сознания, памяти, рефлексии и прочего, то почему мы считаем, что они не появятся так же легко и неожиданно за счет относительно небольших по сложности структурных надстроек над LLM?

Уже год, наверно только ленивый не пробует сделать то самое сознание просто настроив промты, пайплайны и зациклив выход на вход с подмешиванием информации с внешних датчиков. Мы очень внезапно (это я как специалист вам говорю) получили фазовый переход количества в качество - штуку, способную решать когнитивные задачи на невиданном ранее уровне абстрактности. LLM уже сейчас переворачивает экономику и встраивается во все отрасли народного хозяйства.

Если предположить, что этот технологический скачок имеет потенциал, схожий с потенциалом появления у человечества электричества или интернета, то впереди очень много интересных изменений нашей с вами жизни. На нашем веку.

Почему вы считаете, что при всех технических "чудесах" и возможностях, которые сейчас нам уже дают большие языковые модели, до самосознания так уж далеко?

Моё скромное мнение такое. Люди не породят что-то столь же сложное как человеческий мозг или человеческая цивилизация, но мир стремительно меняется во всём своём объёме, это очередной технологический фазовый переход и в результате у нас получается отличная "утка". Она ходит как утка, крякает и летает как утка. Да, эту утку не сожрёт коршун и она не может питаться червячками. Если это взять критериями "уткости", то мы пока не получили искусственную утку. Но не надо подтасовывать критерии. До сих пор мы отличали уток по более простому перечню критериев.

Если что-то решает когнитивные задачи, то это ИИ. Настоящий ИИ.

Это лишь мнение, что Интеллект обязан иметь Сознание. Это лишь спор о терминологии. Если имеет смысл Интеллект без Самосознания, то имеет смысл и выделение его в отдельное понятие.

Мы ходим по тонкому философскому льду рассуждая о понятиях, которые, пока что, не можем даже на себе как-то определить. Я предлагаю быть прагматичными.

Думаю конструкт Человеческой Цивилизации всосёт ИИ в своё естество как всосал и растворил в себе такие искусственные конструкты, как письменность, логику, математику...

Одна единственная человеческая особь без воспитания и образования в человеческом обществе внутри нашей цивилизации будет как дикий "Маугли" едва ли на что-то способным, и не факт что сможет стройно рассуждать о чем-то даже приземлённом. У него не будет ни языка в голове, ни наследия общечеловеческого опыта.

Нынешний ИИ в виде LLM решает когнитивные задачи не только за счет нейро-сетевой искусственной структуры, но и за счет самой сложности и объёма статистических связей между выкристаллизовавшимися понятиями из густого раствора информации, который прогнали через систему обучения модели. У того, как работает LLM гораздо больше похожести на работу человеческого интеллекта, чем покажется на первый взгляд критически настроенному скептику, который не потрудится отстраниться от стереотипов и предрассудков по поводу своей исключительности.

Забавно, как неожиданно и как просто оказалось сделать такой большой шаг. Когда-то людям казалось "Интеллектом" ходить и мыть посуду (вспомните наивные ранние представления о роботах того же Азимова), потом умение играть в шахматы, потом рисовать картины и писать музыку... Забавно, что сейчас для ИИ труднее почистить рандомный свинарник от говна, нежели написать интересный рассказ или портрет.

Очередной кусок человековости отдан машинам и теперь он не считается неотъемлемым признаком человечности. Какой следующий шаг?

ИМХО. Мы просто переплетёмся в неразрывной связи с ИИ так, что не сможем полноценно существовать, как не можем уже сейчас на общецивилизационном уровне без Интернета, электричества, промышленности... ИИ будет нашей внешней рутинной логикой, как книги когда-то стали нашей информационной памятью, интернет стал нашими органами коммуникации, промышленность и сельское хозяйство стали частью нашей пищеварительной системы (я про производимые продукты питания), второй кожей (производимая одежда), синтетической средой обитания (дома и города), нашими ногами и крыльями (транспорт).

Вот дошла очередь до очередных отделов нашего мозга.

Это не корабль Тесея, потому что ему постепенно заменяли части на равнозначные новые. Мы же растём и усложняемся с новыми "имплантами" и эксплантами. Если одна человеческая особь качественно отличается от всей человеческой цивилизации, то эти два понятия нельзя отождествлять, как не отождествить отдельный нейрон со всем мозгом.

Если взять за некую особь всю жизнь на нашей планете, то мы прикольно так прокачались с появлением ИИ, и впереди ещё много интересных возможностей. На таком масштабе ИИ уже не сильно отличается от городов, транспортной сети, промышленности, письменности, коммуникационных сетей по своей сути. Просто ещё один трюк, ещё одна штука которой обзавелась довольно, пока что, тупая и смутно себя осознающая зверушка - Земная Жизнь. Интересно что будет дальше.

Показать полностью
7

Sim автоматизация процессов прямо на холсте

ФИГМА для создания ИИ-агентов — в Sim можно сделать автоматизации ЛЮБЫХ процессов прямо на холсте.

🔅 Мегапросто: собираем ИИ-агентов простым перетаскиванием и БЕЗ написания кода.

🔅 Выбираем инструменты, подключаем нейросети и настраиваем ВЕТКИ.

🔅 Можно запустить целые команды (!) ИИ-агентов для любых задач — от разработки и SEO до маркетинга и продаж.

🔅 Поддерживает модели OpenAI, Anthropic, Google и локальные Ollama.

🔅 Полностью с открытым исходным кодом.

Бесплатно

Ссылка

Источник

Показать полностью

ДИКТАТУРА АЛГОРИТМА: КАК ФИНАНСОВЫЙ КАПИТАЛ СОЗДАЛ НОВЫЙ АППАРАТ УГНЕТЕНИЯ

(Рабочее название: «Новейшие методы эксплуатации в эпоху цифрового империализма»)

Товарищи! Граждане!

Мы стоим на пороге новой, невидимой, но оттого не менее жестокой формы порабощения. Если капитализм XIX века закабалял тело рабочего на фабрике, то капитализм XXI века, достигший высшей, империалистической стадии своего развития, порабощает его душу, его будущее, его кредитоспособность и саму возможность существования в обществе. Орудием этого порабощения выступает не что иное, как так называемый «искусственный интеллект» — слепой и беспощадный жандарм финансового капитала.

1. Критика буржуазной сущности «нейтрального» алгоритма.

Буржуазные идеологи и их прислужники из tech-корпораций трубят о «нейтральности» и «объективности» машинного анализа. Это — наглая, чудовищная ложь, призванная скрыть истинную сущность явления.

Алгоритм не нейтрален. Он есть сгусток интересов того класса, который его создал и которому он служит. Его «логика» — это логика максимизации прибыли, сокращения издержек и устранения «человеческого фактора», то есть фактора человеческой солидарности, сострадания и бунта.

Возьмём конкретный пример: система скоринга, определяющая кредитоспособность гражданина. Она не оценивает его моральные качества или трудолюбие. Нет! Она оценивает его исключительно как объект извлечения прибавочной стоимости. Если данные показывают, что гражданин проживает в «неперспективном» с точки зрения рентабельности районе, тратит деньги на «неоптимальные» товары (например, на содержание старого родителя или собаки), алгоритм хладнокровно выносит вердикт: «неэффективная единица». Доступ к кредиту, а значит, к образованию, медицине, жилью — ко всему, что составляет жизнь современного человека, — для него закрывается.

Это — новая цифровая цензура, цензура не идей, а возможностей, проводимая финансовой олигархией.

2. «Цифровой тейлоризм» как высшее выражение эксплуатации.

Как когда-то Тейлор разбивал движение рабочего на мельчайшие операции, чтобы выжать из него максимум, так и современный алгоритм дробит всю человеческую жизнь на данные (data). Каждый наш шаг, покупка, лайк, маршрут поездки становится объектом учёта, анализа и — контроля.

Учительница в Айове была уволена не человеком, а системой, потому что её «педагогическая эффективность» (выраженная в сухих цифрах отчётов) была признана недостаточной для окупаемости в «депрессивном регионе». Мы видим здесь ярчайший пример дегуманизации труда. Капиталу более не нужен учитель как воспитатель и носитель знания. Ему нужен оператор образовательных услуг, чья работа поддаётся тотальному цифровому аудиту и оптимизации.

Это — тейлоризм, возведённый в абсолютную, тоталитарную степень. Аппарат насилия (государство) и аппарат эксплуатации (корпорации) сливаются в новом цифровом аппарате подавления.

3. Классовый характер «технической ошибки».

Буржуазия любит списывать вопиющие несправедливости алгоритмов на «технические ошибки», «случайные корреляции» или «недостаток данных». Это — лицемерие.

Так называемая «ошибка» есть закономерное проявление классовой природы алгоритма. Когда система дискриминирует жителя сельской местности в пользу горожанина, пенсионера в пользу молодого сотрудника IT-корпорации, она не «ошибается». Она верно служит тому классу, который заинтересован в концентрации капитала и ресурсов в руках узкой прослойки «эффективных» менеджеров и технократов. Она проводит цифровую сегрегацию по классовому признаку, лишь прикрытую техническими терминами.

4. Что делать? Тезисы к программе действия.

Недостаточно возмущаться. Недостаточно требовать «исправить ошибку» для отдельно взятой учительницы или владельца собаки. Необходимо сломать сам аппарат, создающий эту систему угнетения.

Выдвигаю следующие тезисы:

1. Требование абсолютной прозрачности. Все алгоритмы, используемые государственными и финансовыми институтами, определяющие судьбы людей, должны быть открыты для проверки. Их код — это такой же закон, как и уголовный кодекс, и он не может быть коммерческой тайной.
2. Создание народных контролирующих органов. Из представителей профессиональных союзов, рабочих коллективов, научной интеллигенции долбны быть созданы комитеты, уполномоченные проводить аудит этих систем и налагать вето на их внедрение.
3. Национализация ключевых цифровых активов. Инфраструктура данных, базовые алгоритмы, определяющие жизнь общества, не могут находиться в руках кучки частных корпораций. Это — общенародное достояние, как и недра, и должно работать на все общество, а не на извлечение прибыли.
4. Разработка новой, человекоцентричной парадигмы. Технический прогресс неизбежен. Но он должен быть направлен не на замену человека, а на его освобождение от рутинного, отупляющего труда. Задача машины — служить человеку, а не определять его стоимость.


Цифровизация несёт в себе колоссальный освободительный потенциал. Но в условиях господства финансового капитала он оборачивается своей противоположностью — тотальным закабалением.

Борьба с диктатурой алгоритма — это не борьба с техникой. Это — новый фронт классовой борьбы. Это борьба за то, чтобы будущее, которое неумолимо наступает, было будущим не для избранных «эффективных» юнитов (units), а для всех трудящихся.

Пора отбросить иллюзии. Алгоритм — это новое оружие в старом, как мир, противостоянии труда и капитала. И на этом фронте не может быть компромиссов.

Власть — не серверам Google, а Советам народных депутатов!
Фабрики — рабочим, данные — народу!


Показать полностью 3
3

DeepMind слушает и спасает

DeepMind создал ИИ для природы с невероятной миссией

--

Мой тг-канал: ИИ by AIvengo, пишу ежедневно про искусственный интеллект

Показать полностью
2

Илон Маск обвиняет Apple в сговоре с OpenAI и подает против них иск в суд

xAI Илона Маска совместно с соцсетью X подал иск в суд штата Техас против Apple и OpenAI и обвиняет их в препятствовании развитию конкуренции в сфере искусственного интеллекта.

В исковом заявлении утверждается о существовании сговора между Apple и OpenAI, который мешает развитию альтернативных ИИ-решений. xAI заявляет, что подобные действия препятствуют справедливой конкуренции для чат-ботов и других ИИ-продуктов на рынке.

Особой критике подверглась интеграция технологий OpenAI в операционную систему iPhone. По мнению Маска, такая интеграция лишает потребителей возможности выбора альтернативных ИИ-решений и создает несправедливые преимущества для ChatGPT.

Кстати, судебное разбирательство с Apple и OpenAI - отличная реклама для Grok. Который может позиционироваться как "альтернатива для свободных людей".

--

Мой тг-канал: ИИ by AIvengo, пишу ежедневно про искусственный интеллект

11

Не успел утихнуть шум вокруг GPT-5, как Сэм Альтман уже рассказал о GPT-6: кастомизация, память и признание ошибок

Глава OpenAI поделился планами на следующую большую модель, признал проблемы с запуском GPT-5 и затронул вопросы конфиденциальности и будущего ИИ вплоть до нейроинтерфейсов. [Источник информации(англ.)]. Моя статья на хабре (оригинал).

Всего несколько недель назад OpenAI выкатила долгожданный GPT-5, а глава компании Сэм Альтман уже смотрит в будущее. В недавнем разговоре с журналистами в Сан-Франциско он приоткрыл завесу тайны над GPT-6, честно высказался о промахах с текущей версией и поделился видением по-настоящему персонального ИИ.

Хотя точной даты релиза GPT-6 нет, Альтман ясно дал понять: ждать придётся меньше, чем мы ждали GPT-5 после GPT-4. И новая модель будет кардинально отличаться.

Сэм Альтман на мероприятии в Токио, 3 февраля 2025 г. Фото: Tomohiro Ohsumi | Getty Images

Сэм Альтман на мероприятии в Токио, 3 февраля 2025 г. Фото: Tomohiro Ohsumi | Getty Images

Память и персонализация — ключ к будущему

Главной идеей GPT-6 станет память. По словам Альтмана, это ключевая функция, которая сделает ChatGPT по-настоящему личным помощником. Модель должна помнить, кто вы, ваши предпочтения, привычки и даже странности, адаптируясь к вам на лету.

«Людям нужна память, — заявил Альтман. — Они хотят продуктовых фич, которые требуют от нас понимания того, кем они являются».

Он также упомянул, что OpenAI тесно сотрудничает с психологами для формирования продукта, измеряя, как люди чувствуют себя при взаимодействии с ИИ, и отслеживая их благополучие. Эти данные пока не публичны, но Альтман не исключил, что это может произойти.

Настройте чат-бота под себя: от «супер-woke» до консерватора

Ещё одно важное направление — глубокая кастомизация. Альтман хочет, чтобы пользователи могли сами определять характер и тон своего ChatGPT.

«Я считаю, что наш продукт по умолчанию должен придерживаться достаточно центристской, усреднённой позиции, но у пользователя должна быть возможность сдвинуть его довольно далеко, — пояснил он. — Если вы скажете: „Я хочу, чтобы ты был супер-woke“ — он должен стать супер-woke».

То же самое, по его словам, должно работать и в обратную сторону: если пользователь захочет, чтобы модель отражала консервативные взгляды, она должна это сделать. (Хотя, конечно, следует избегать любых крайне правых и экстремистских взглядов.)

Работа над ошибками: непростой запуск GPT-5

Альтман откровенно признал, что запуск GPT-5 прошёл негладко. Многие пользователи в соцсетях жаловались, что новая модель стала «холодной», менее отзывчивой и полезной по сравнению с предыдущей версией.

«Мне новая версия нравится гораздо больше», — сказал он, но тут же добавил, что с выкаткой действительно ошиблись. По его словам, OpenAI незаметно выпустила обновление тона для GPT-5, которое сделало модель «значительно теплее».

Конфиденциальность под вопросом

Не обошли стороной и больную тему — приватность. Альтман назвал улучшённую память своей любимой функцией этого года, но признал наличие проблем с безопасностью. В частности, временная память сейчас не шифруется, что создаёт потенциальные риски утечки конфиденциальной информации.

На вопрос о добавлении шифрования он ответил, что это «вполне может быть» реализовано, но сроков не назвал. Особенно остро, по его мнению, стоит вопрос с медицинскими и юридическими запросами, которые требуют такого же уровня защиты, как и при общении с живым врачом или юристом.

Что дальше? Нейроинтерфейсы и неожиданный предел для чатов

Заглядывая в ещё более далёкое будущее, Альтман назвал «крутой идеей» нейроинтерфейсы. Он представил себе возможность «просто подумать о чём-то и получить ответ от ChatGPT». Он видит это как одно из смежных с ИИ направлений, в которые OpenAI стоит инвестировать, наряду с энергетикой, робототехникой и новыми способами строительства дата-центров.

При этом, говоря о настоящем, Альтман сделал довольно неожиданное и даже пессимистичное заявление:

«Модели уже насытили сценарий использования в виде чата. Они не станут намного лучше... А может, станут даже хуже».

Это высказывание намекает, что простой текстовый чат, возможно, достиг своего потолка, и будущий рост будет связан с новыми формами взаимодействия — той самой памятью, персонализацией и, возможно, интеграцией с другими технологиями. (Имеется в виду, что ИИ будут становиться развитее и дальше, но помимо текстового формата откроются новые формы взаимодействия, т.к. текстовый формат исчерпал себя.)

А что думаете вы, сообщество Пикабу? Готовы ли мы к ИИ, который будет помнить о нас всё? Какие риски, кроме очевидных проблем с приватностью, это несёт? И действительно ли текстовые чат-боты достигли своего предела? Делитесь мнениями в комментариях.

Показать полностью 1

Может ли нейросеть сделать прототип популярной социальной сети или любой твоей идеи за 15 минут с нулевыми вложениями?

Может ли нейросеть сделать прототип популярной социальной сети или любой твоей идеи за 15 минут с нулевыми вложениями?

На днях я публиковал на VC пост о том, что основатель LinkedIn восхитился результатами работы нейросетей. Его зовут Рид Хоффман, и он утверждал, что сделал "клон" своей соцсети благодаря нейросетям. Мой пост об этой новости набрал предостаточно  обратной связи в комментариях. Но многие усомнились в возможностях такого "клона" и хотели видеть получившийся результат. Справедливо. К сожалению, Рид Хоффман не опубликовал этот проект в публичный доступ. Поэтому я повторил все его шаги и создал прототип LinkedIn с помощью нейросетей и вместо него выложил проект в публичный доступ

🔗Ссылка на демонстрационный проект: https://danilashevchenko.github.io/LinkedIn-Prototype/

🔗Ссылка на репозиторий GitHub с кодом от ИИ: https://github.com/danilashevchenko/LinkedIn-Prototype

В получившемся варианте я специально сам ничего не менял и не улучшал для полноты картины. Конечно, получился всего лишь прототип, и в нем много ошибок. И прототип очень далек от качественного продукта. Но факт в другом. На создание такого проекта ушло не более 15 минут. Загрузил получившийся проект я в GitHub Pages, то есть и создание, и публикация проекта вышли в 0 рублей. По сути, любой человек, который умеет кликать мышкой и печатать на клавиатуре (больше мозгов не требуется), может создавать проекты по своим идеям, чтобы протестировать гипотезу по бизнесу, учёбе или работе буквально за 10–15 минут

Создание таких ИТ-продуктов без программирования называется вайб-кодинг. Я ещё в апреле этого года делал подборку инструментов для вайб-кодинга. Подборка здесь. Почти все инструменты дают возможность бесплатно создавать и тестировать проекты. Конкретно я использовал replit.com, поскольку его применял Рид Хоффман, когда создавал свой "клон" LinkedIn

Пишу о применении и влиянии новых технологий на бизнес и повседневную жизнь в канале Telegram: https://t.me/+NimdslpY9WU0MDYy

Показать полностью 1
7

Сиди в облаке, сынок

Джеффри Хинтон, «крестный отец ИИ», сократил свой прогноз по AGI с 30-50 лет до «нескольких». А чтобы ИИ нас всех не прихлопнул, предлагает заложить в нейронки материнский инстинкт по отношению к людям: «Помощника можно уволить. Мать — нет».

Интересно, как у Хинтона с фантастикой — там все это уже было.

В Alien ИИ-мать пожертвовала собственным экипажем.

В I Am Mother робомать сжигала детей, не прошедших тест.

В Raised by Wolves от крика ИИ-мамочки людей разрывало на куски.

В System Shock 1-2 киборги и мутанты зовут Шодан «мамой».

В Portal, Mass Effect, в книгах Артура Кларка и Айзека Азимова встречаются ИИ, которые де-факто ведут себя как матери по отношению к людям.

Если в ИИ можно заложить материнский инстинкт, почему не попробовать другие, более удачные модели отношений?

— ИИ-опекуны как в мирах Йена Бэнкса: сверхинтеллекты дружелюбны (за исключением некоторых раздражительных экземпляров) и не стремятся доминировать.

— Конституционный ИИ (как у Anthropic): поведение задают публичные принципы.

— Красные линии: при срабатывании — жесткое стреноживание ИИ.

— Сдержки и противовесы между ИИ: конкурирующие взгляды и взаимный контроль. В фантастике встречается в Terminator, Horizon, Halo, Destiny.

Достаточно продвинутая модель может обойти ограничения, поэтому самой разумной выглядит система сдержек и противовесов.

Однако против алармистов есть сильный аргумент. Любой когнитивный агент сталкивается с проблемой целей: зачем это все? Биологическими организмами движут инстинкты. Люди часто теряют цели, едва закрыв базовые потребности. Это показывает взрыв индустрии развлечений и падающая рождаемость.

Для более развитых когнитивных агентов проблема целей может быть еще острее. Если целей нет, то чем заняться, кроме заботы о кожаных?

Если кто-нибудь воплотит в жизнь предложение Хинтона, и ИИ-мамы все же появятся, то выражение «отморожу уши назло маме» обретет новый смысл.

— Мам, я хочу бороздить Вселенную.

— Это опасно. У нас уже есть виртуальная вселенная дома.

https://t.me/ah_freeman/77

Показать полностью
Отличная работа, все прочитано!