Сообщество - Искусственный интеллект

Искусственный интеллект

5 077 постов 11 491 подписчик

Популярные теги в сообществе:

4

Нейросеть для копирования голоса от Open AI и меры безопасности от мошенничества

Нейросеть для копирования голоса от Open AI и меры безопасности от мошенничества

Open AI показали нейросеть, которая может клонировать голос — Voice Engine.

Именно Voice Engine дал «голос» ChatGPT, а теперь еще и умеет клонировать чужие голоса по 15 секундам аудио образца.

Open AI заявляет, что Voice Engine может помочь детям и взрослым, которые не умеют читать, воспринимать текстовый контент. По словам разработчиков, модель не только сотрёт языковые барьеры, но и позволит блоггерам и компаниям общаться с аудиторией на любом языке собственным голосом. Также этот инструмент будет полезен людям, которые по каким-либо причинам потеряли голос или столкнулись с нарушением речи.

Простым смертным модель всё ещё нельзя попробовать, пока ее тестируют it - компании. И не спроста пока ее не выпускают в широкие массы, Open AI серьезно подстраховываются.

Меры против мошенничества

Тем, кто беспокоится о мошенничестве,  Open AI серьезно позаботилось о безопасности. 

Во-первых, партнеры, тестирующие Voice Engine, согласились с их  политикой использования, которая запрещает выдавать себя за другое физическое лицо или организацию без согласия или законного права.

Во-вторых, все должны получить согласие первоначального докладчика, и мы не разрешаем разработчикам создавать способы для отдельных пользователей создавать свои собственные голоса. 

В-третьих, партнеры должны сообщать своей аудитории, что голоса, которые они слышат, генерируются искусственным интеллектом. 

В-четвертых, Open AI внедрили ряд мер безопасности, включая водяные знаки для отслеживания происхождения любого звука, генерируемого Voice Engine.

В-пятых, в США уже запретили звонки с использованием сгенерированных голосов из-за случая спам-звонков от Байдена )) Остальные страны тоже подтянутся в стремлении ограничить неэтичное использование голосовых технологий ИИ. 

Подписывайтесь на ИИшница 🍳 - тут все самое интересное из мира новых технологий и нейросетей 🤖

Показать полностью 1

Нейросети клеят тян лучше тебя: шокирующая правда о пикапе 2.0

Нейросети клеят тян лучше тебя: шокирующая правда о пикапе 2.0

Парни, забудьте про заученные фразы и советы из пабликов ВКонтакте! Теперь у нас есть оружие помощнее – нейросети-пикаперы. Эти цифровые Казановы обещают научить искусству соблазнения любого, от скромной отличницы до дерзкой тусовщицы. Но так ли всё просто? Давайте разбираться, как работают эти нейро-купидоны и смогут ли они заменить живое общение.

Комплименты от GPT-3: от "твои глаза как звёзды" до "ты похожа на мою маму"

Первое, что освоили нейросети – это комплименты. GPT-3, например, может генерировать их пачками, используя различные стили и образы. Хочешь что-то романтичное? Получай: "Твои глаза сияют ярче, чем звёзды на летнем небе". Нужно что-то оригинальное? Вот тебе: "Твоя улыбка – это как солнечный зайчик, который прыгает по моим нервным окончаниям". Но будьте осторожны, иногда нейросети выдают такое, что хочется развидеть. Например: "Ты напоминаешь мне мою маму, когда она молодая была". Так что перед отправкой лучше проверять, не ляпнул ли искусственный интеллект какую-нибудь дичь.

Нейропоэт: стихи на заказ, даже если рифма – не твоё

Вторая фишка нейросетей – это стихи. Да-да, теперь не нужно быть Пушкиным, чтобы впечатлить девушку рифмами. Просто задайте тему и стиль, а нейросеть выдаст вам поэтический шедевр (ну, или что-то похожее на него). Хотите признаться в любви? Пожалуйста: "Твои глаза – как два омута, в них тону я без остатка, и готов я на всё, чтобы быть с тобой, моя сладка". Нужно что-то более дерзкое? Без проблем: "Ты – огонь, я – бензин, вместе мы – взрывная смесь, давай зажжём эту ночь, детка, ты – моя принцесса". Только не забудьте проверить, нет ли в стихах откровенной ерунды, а то девушка может подумать, что вы немного того.

Нейроболтун: поддержать разговор, даже если ты – молчун

Третий скилл нейросетей – это поддержание разговора. Они могут анализировать сообщения девушки и генерировать ответы, которые будут интересны именно ей. Любит она котиков? Вот тебе милые истории про пушистиков. Увлекается музыкой? Обсуждаем последние новинки и делимся любимыми треками. Нейросеть поможет вам найти общие темы и не ударить в грязь лицом, даже если вы обычно теряетесь при общении с девушками.

Но есть нюанс...

Несмотря на все эти фишки, нейросети-пикаперы пока не могут заменить живого человека. Почему?

  • Отсутствие эмоций: Нейросети не умеют чувствовать и сопереживать. Они могут генерировать красивые слова, но за ними не будет настоящих эмоций.

  • Непонимание контекста: Иногда нейросети выдают совершенно нелепые фразы, потому что не понимают контекста разговора или особенностей личности девушки.

  • Отсутствие спонтанности: Нейросети работают по заданному алгоритму, поэтому им сложно импровизировать и реагировать на неожиданные повороты событий.

Так что, парни, не надейтесь полностью на искусственный интеллект. Нейросети могут быть полезным инструментом, но живое общение, юмор, искренность и умение слушать – всё это по-прежнему в цене. А главное – будьте собой, ведь именно это привлекает девушек больше всего.

Если не хочешь отстать от прогресса подпишись на наш тг- https://t.me/NeuroNet02 (новости из сферы ии и всё про нейронные сети)

Показать полностью 1

Прорыв в Спорте: Как ИИ Предсказывает Исходы Матчей с Невероятной Точностью1

Прорыв в Спорте: Как ИИ Предсказывает Исходы Матчей с Невероятной Точностью

Эй, спортфанаты и техногики! Представьте себе: полуфинал чемпионата мира по футболу, ваша любимая команда против вечных соперников. Вы сидите, укусив ногти, а рядом ИИ, который тихонько шепчет вам: "Не переживай, у твоей команды 73.6% шансов на победу". Верите? Добро пожаловать в эру, где ИИ прогнозирует спортивные матчи с точностью, достойной Нострадамуса!

Прогнозирование исходов: чем не ведьмак? Сначала были букмекеры с их магическими шарами, теперь - ИИ с алгоритмами. Они анализируют всё: от прошлых результатов команд до состояния поля в день игры. Иногда ИИ так увлекается, что предсказывает не только победителя, но и точный счёт. А уж как он ошарашил всех, предсказав победу аутсайдера с коэффициентом 10 к 1! Подумаешь, один раз ошибся…

Тренировки по-киберспортивному: ИИ не только оракул, но и тренер. Он следит за каждым шагом атлетов, а потом дает советы: "Беги быстрее", "Бросай точнее". И не просто так, а на основе миллионов данных. Помните того парня, что взлетел как феникс после нескольких месяцев тренировок с ИИ? Да, этот ИИ не только кроссовки завязать может!

Под капотом у ИИ-тренера: Скучно? Да ладно! Заглянем в "кухню" ИИ. Алгоритмы здесь - как рецепты шеф-повара. Каждая статистика, каждое движение игрока - это ингредиенты для идеального спортивного "блюда". ИИ не просто анализирует, он учится на каждой игре, каждой ошибке. Умнее, чем ваш средний фанат на диване.

Игроки и ИИ: друзья или враги? Некоторые спортсмены скептически относятся к ИИ. "Что он знает о настоящем спорте?" - говорят они. Но когда видят результаты - меняют мнение. Да, машины еще не выходят на поле, но уже помогают выигрывать. Или, по крайней мере, делают спорт интереснее для нас, зрителей.

Заключение: ИИ - новая эра спорта или просто забавная игрушка? Так что, друзья, следующий раз, когда будете смотреть матч, помните: где-то там, в тени стадиона, работает нейросеть, делая спорт умнее. А теперь, дорогие читатели, вопрос к вам: доверились бы вы прогнозам ИИ на следующий матч вашей любимой команды? Или предпочли бы полагаться на свой собственный анализ? Пишите в комментариях, интересно ваше мнение!

Не забывайте про наш тг канал, подпишись- https://t.me/NeuroNet02 чтобы не отставать от прогресса (новости из сферы ии, и всё про нейросети)

Показать полностью 1

Разгадка ChatGPT: Уникальные Секреты Мастерства для Создания Вирусных Статей

Разгадка ChatGPT: Уникальные Секреты Мастерства для Создания Вирусных Статей

Привет, пикабушники! Сегодня я поделюсь с вами секретом: как использовать ChatGPT для того, чтобы ваши статьи стали хитом. Да, мы не будем говорить о роботах, захватывающих мир. Здесь всё про креатив и хитрости написания контента. Поехали!

Что такое ChatGPT и почему это круто?

Сначала разберемся, что такое ChatGPT. Это искусственный интеллект, обученный отвечать на ваши запросы почти как человек. Можно сказать, это ваш цифровой помощник в написании текстов. Звучит круто, правда?

Как составить промпт, чтобы ChatGPT понял вас правильно

Теперь самое интересное: как задать вопросы (промпты), чтобы ChatGPT понял вас с полуслова. Секрет прост – будьте конкретны. Например, вместо "напиши статью про нейросети" скажите "напиши статью про использование нейросетей в создании музыки". Чем точнее ваш промпт, тем лучше результат.

Использование ChatGPT для генерации идей

Скажем, вы застряли и не знаете, о чем написать. Ну, это же бывает у всех! ChatGPT может стать вашим источником вдохновения. Спросите его о последних трендах в вашей тематике или попросите предложить идеи для статей. Вы будете удивлены, сколько необычных мыслей он вам подкинет!

SEO-оптимизация статей с помощью ChatGPT

SEO-оптимизация – это когда ваша статья нравится не только читателям, но и поисковикам. ChatGPT может помочь вам с выбором ключевых слов и подсказать, как улучшить структуру текста, чтобы он лучше ранжировался. Просто спросите: "Какие ключевые слова лучше всего использовать в статье про [ваша тема]?"

Заключение:

Итак, мы разобрались, как ChatGPT может помочь вам в создании идеальных статей. Этот инструмент открывает новые горизонты для писателей, блогеров и всех, кто любит и умеет писать. Не бойтесь экспериментировать и попробуйте новые подходы в своей работе.

Ну вот, друзья, на этом я заканчиваю. Не забудьте поделиться в комментариях, как вы используете ChatGPT в своих проектах. А теперь давайте генерировать крутые идеи и создавать что-то невероятное!

Всем удачи и до новых встреч на страницах Пикабу!

Не забывайте про наш тг канал, подпишись- https://t.me/NeuroNet02 чтобы не отставать от прогресса (новости из сферы ии, и всё про нейросети)

Показать полностью 1
6

Подборка бесплатных и доступных нейронок на все случаи жизни

Подборка бесплатных и доступных нейронок на все случаи жизни

Фото:

Fast SDXL - создание изображения

Ideogram  - альтернатива SDXL

Neoprompt - промпт-помощник для изображений

Видео:

Genmo - Создать видео по тексту

Pika - Альтернатива с анимацией изображений, есть бесплатный период

Lalamu - Создать говорящую голову

Звук:

Riffusion - Создание музыки

Stable Audio - альтернатива

Поиск:

Perplexity - ИИ-поисковик с возможностями чат-бота, наиболее умный в режиме Copilot.

Подписывайтесь на ИИшница 🍳 - тут все самое интересное из мира новых технологий и нейросетей 🤖

Показать полностью 1
9

Чертеж в 3d

Нейронка перегонит чертежи в 3D-модели. В жизни у вас уйдёт на это неделя, Theia справится за минуты. Для реально жёстких инженеров есть и анализатор документов с оценкой пригодности деталей.

Взрослый ИИ для настоящих работяг — тут

Источник

Показать полностью

Создаём комиксы

Эта нейросеть нарисует вам крутой комикс с любым сюжетом. В AI Comic Factory можно сгенерировать любые сюжеты и даже визуализировать свои сны! Пишем, о чем думаем, и получаем готовый комикс.

Ссылка

Источник

Показать полностью
15

Жажда "цифровой крови": Как Google, OpenAI и Meta переступают черту ради развития ИИ

Технологические гиганты OpenAI, Google и Meta* в погоне за онлайн-данными для обучения своих новейших систем искусственного интеллекта готовы на всё: игнорировать корпоративные политики, менять собственные правила и даже обсуждать возможность обхода законов об авторском праве.

Одним из самых вопиющих примеров стали действия исследователей OpenAI в Сан-Франциско. Они разработали инструмент для транскрибирования видео с YouTube, чтобы собрать огромный массив разговорных текстов для развития ИИ. Некоторые сотрудники OpenAI выражали обеспокоенность тем, что такой шаг может нарушать правила YouTube, которые запрещают использовать видео платформы для "независимых" приложений. Однако в итоге команда во главе с президентом компании Грегом Брокманом, который лично участвовал в сборе данных, расшифровала более миллиона часов видео. Полученные тексты были загружены в GPT-4 - одну из самых мощных языковых моделей в мире, лежащую в основе чат-бота ChatGPT.

Эта история наглядно демонстрирует, насколько отчаянной стала гонка за цифровыми данными, необходимыми для прогресса ИИ. Ради заветных терабайтов информации технологические компании, включая OpenAI, Google и Meta*, готовы срезать углы, игнорировать внутренние политики и балансировать на грани закона. Расследование New York Times показало, что эти ИТ-гиганты всерьез обсуждали возможность обхода авторских прав ради пополнения своих баз данных.

В Meta*, которой принадлежат Facebook* и Instagram* , менеджеры, юристы и инженеры всерьез рассматривали вариант покупки издательства Simon & Schuster, чтобы заполучить большой объем книг. Они также обсуждали идею собирать защищенные авторским правом данные по всему интернету, даже если это грозило судебными исками. По их мнению, переговоры о лицензировании с издателями, авторами, музыкантами и новостной индустрией заняли бы слишком много времени.

Google, как и OpenAI, расшифровывал видео с YouTube для получения текстовых данных, потенциально нарушая авторские права создателей контента. Кроме того, в прошлом году компания расширила свои условия использования сервисов. Одной из причин этого изменения, по словам сотрудников отдела конфиденциальности и внутренних документов, стало желание получить возможность анализировать публично доступные файлы Google Docs, отзывы на Google Maps и другие онлайн-материалы для использования в своих ИИ-продуктах.

Эти примеры показывают, что новости, художественные произведения, посты на форумах, статьи из Википедии, компьютерные программы, фотографии, подкасты и фрагменты фильмов стали настоящей "цифровой кровью", питающей бурно развивающуюся индустрию искусственного интеллекта. Создание инновационных систем напрямую зависит от наличия достаточного объема данных для обучения ИИ мгновенной генерации текстов, изображений, звуков и видео, неотличимых от созданных человеком.

Объем данных имеет решающее значение. Ведущие чат-боты обучались на массивах цифровых текстов, включающих до трех триллионов слов - примерно вдвое больше, чем хранится в Бодлианской библиотеке Оксфордского университета, которая собирает рукописи с 1602 года. По словам исследователей ИИ, наиболее ценными являются высококачественные данные, такие как опубликованные книги и статьи, тщательно написанные и отредактированные профессионалами.

Долгие годы интернет с такими сайтами, как Википедия и Reddit, казался неиссякаемым источником данных. Но по мере развития ИИ технологические компании стали искать новые резервуары информации. Google и Meta, имеющие миллиарды пользователей, ежедневно генерирующих поисковые запросы и посты в соцсетях, во многом ограничены законами о конфиденциальности и собственными политиками в плане использования этого контента для обучения ИИ.

Ситуация становится критической. По прогнозам исследовательского института Epoch, уже к 2026 году технологические компании могут исчерпать все качественные данные, доступные в интернете. Гиганты индустрии потребляют информацию быстрее, чем она производится.

"Единственный практичный способ существования этих инструментов - это возможность обучать их на огромных объемах данных без необходимости лицензирования", - заявил Сай Дамл, юрист, представляющий интересы венчурной компании Andreessen Horowitz, в ходе публичной дискуссии об авторском праве. "Необходимый объем данных настолько огромен, что даже коллективное лицензирование не сможет решить проблему".

Технологические компании настолько жаждут новых данных, что некоторые из них разрабатывают "синтетическую" информацию. Речь идет не об органическом контенте, созданном людьми, а о текстах, изображениях и коде, генерируемых самими ИИ-моделями. Иными словами, системы учатся на том, что создают сами.

OpenAI заявила, что каждая ее ИИ-модель "имеет уникальный набор данных, который мы тщательно подбираем, чтобы улучшить их понимание мира и оставаться глобально конкурентоспособными в исследованиях". Google отметила, что ее модели "обучаются на некотором контенте YouTube" в рамках соглашений с авторами, и что компания не использует данные из офисных приложений вне экспериментальной программы. Meta* подчеркнула, что "агрессивно инвестировала" в интеграцию ИИ в свои сервисы и имеет миллиарды публично доступных изображений и видео из Instagram*  и Facebook* для обучения своих моделей.

Для создателей контента растущее использование их произведений ИИ-компаниями стало поводом для исков о нарушении авторских прав и лицензировании. The New York Times подала в суд на OpenAI и Microsoft за использование защищенных авторским правом новостных статей без разрешения для обучения чат-ботов. OpenAI и Microsoft заявили, что использование материалов было "добросовестным" и разрешенным законом, поскольку оригинальные тексты были трансформированы для другой цели.

Более 10 000 торговых групп, авторов, компаний и других организаций направили свои комментарии по поводу использования творческих работ ИИ-моделями в Бюро авторских прав США - федеральное агентство, готовящее рекомендации по применению копирайта в эпоху ИИ.

Режиссер, актриса и писательница Джастин Бейтман заявила Бюро, что ИИ-модели используют контент, включая ее книги и фильмы, без разрешения и оплаты. "Это крупнейшая кража в истории Соединенных Штатов, точка", - подчеркнула она в интервью.

"Масштаб решает все": Как одна научная статья разожгла аппетит к данным

В январе 2020 года теоретический физик из Университета Джонса Хопкинса Джаред Каплан опубликовал новаторскую статью об ИИ, которая разожгла аппетит технологических гигантов к онлайн-данным. Его вывод был однозначен: чем больше информации, данных - "цифровой крови" ИИ-систем, будет использовано для обучения большой языковой модели (ключевой технологии чат-ботов), тем лучше будут её результаты. Подобно тому, как студент становится образованнее, прочитав больше книг, ИИ-алгоритмы могут точнее распознавать паттерны в тексте и давать более точные ответы, впитав больше данных.

"Все были поражены тем, что эти закономерности, которые мы называем "законами масштабирования", оказались столь же точными, как и те, что мы наблюдаем в астрономии или физике", - отметил доктор Каплан, опубликовавший статью в соавторстве с девятью исследователями OpenAI (сейчас он работает в ИИ-стартапе Anthropic).

Лозунг "Масштаб решает все" быстро стал боевым кличем для всей индустрии ИИ, ознаменовав начало безудержной гонки за данными, этой "цифровой кровью" для алгоритмов. Исследователи, которые раньше довольствовались относительно скромными публичными базами данных вроде Википедии или Common Crawl (архива из более чем 250 миллиардов веб-страниц, собираемого с 2007 года), осознали, что в новую эпоху этой информации катастрофически мало. Если до статьи Каплана датасеты с 30 000 фотографий с Flickr считались ценным ресурсом, то теперь ИИ-системам требовались терабайты текстов, изображений и другого "топлива" для развития.

Когда в ноябре 2020 года OpenAI представила GPT-3, эта модель была обучена на рекордном на тот момент объеме данных - около 300 миллиардов "токенов" (по сути, слов или частей слов). Впитав эту гору информации, система начала генерировать тексты с пугающей точностью, создавая блог-посты, стихи и даже компьютерные программы.

Гонка за "цифровой кровью" только начиналась. В 2022 году лаборатория DeepMind, принадлежащая Google, провела эксперимент с 400 ИИ-моделями, варьируя объем обучающих данных. Лучшие результаты показали системы, питавшиеся еще большим объемом информации, чем предсказывал Каплан. Модель Chinchilla "выпила" 1.4 триллиона токенов.

Но и этот рекорд вскоре был побит. В прошлом году китайские исследователи представили Skywork - ИИ-модель, обученную на 3.2 триллиона токенов из английских и китайских текстов. А Google анонсировала систему PaLM 2, проглотившую умопомрачительные 3.6 триллиона токенов - настоящее море данных.

Алгоритмы-вампиры вошли во вкус. И теперь уже ничто не могло остановить их ненасытную жажду информации, столь необходимой для развития ИИ...

Высасывая данные из YouTube: Как OpenAI переступила черту

В мае Сэм Альтман, генеральный директор OpenAI, признал, что запасы ценной информации в интернете скоро иссякнут под натиском ИИ-компаний, одержимых идеей масштаба. "Этот ресурс не бесконечен", - заявил он в своей речи на технологической конференции.

Альтман знал, о чем говорит. В OpenAI исследователи годами собирали данные, очищали их и скармливали ненасытным алгоритмам, превращая в топливо для обучения языковых моделей. Они выкачивали код с GitHub, поглощали гигантские базы шахматных партий, анализировали школьные тесты и домашние задания с сайта Quizlet. Но к концу 2021 года эти источники истощились, рассказали восемь человек, знакомых с ситуацией в компании.

OpenAI отчаянно нуждалась в новой информации для своего ИИ следующего поколения - GPT-4. Сотрудники обсуждали идеи транскрибировать подкасты, аудиокниги и видео с YouTube, создавать данные с нуля с помощью других ИИ-систем и даже покупать стартапы, накопившие большие объемы цифрового контента.

В итоге OpenAI создала инструмент распознавания речи Whisper, чтобы извлекать тексты из YouTube-роликов и подкастов, рассказали шесть человек. Однако правила YouTube запрещают не только использовать видео в "независимых" приложениях, но и получать доступ к контенту платформы "любыми автоматическими средствами (такими как роботы, ботнеты или скраперы)".

Сотрудники OpenAI понимали, что вступают в серую зону закона, но считали, что обучение ИИ на этих видео - это "добросовестное использование". Грег Брокман, президент компании, лично участвовал в сборе роликов с YouTube и скармливал их Whisper, став одним из создателей инструмента.

В прошлом году OpenAI выпустила GPT-4, модель, обученную на более чем миллионе часов видео, которые Whisper извлек с YouTube и превратил в бесценный ресурс для развития ИИ. Команду разработки GPT-4 возглавлял лично Брокман.

Некоторые сотрудники Google знали о практиках OpenAI, но не препятствовали им, так как сам Google использовал транскрипты YouTube-видео для обучения своих ИИ-моделей, рассказали два человека, знакомых с ситуацией. Такой подход мог нарушать авторские права создателей контента. Если бы Google попытался предъявить претензии OpenAI, это могло вызвать общественный резонанс и привести к скандалу вокруг методов самого техногиганта.

Алгоритмы продолжали безнаказанно высасывать данные из YouTube, превращая видео в топливо для развития ИИ, невзирая на правила платформы и вопросы этики. Жажда информации, разожженная гонкой за лидерство в сфере ИИ, оказалась сильнее угрызений совести и страха перед законом.

Как Google может использовать ваши данные: Изменения в политике конфиденциальности

В прошлом году Google внес изменения в свою политику конфиденциальности для бесплатных потребительских приложений. Согласно новой формулировке, компания использует информацию для улучшения сервисов, разработки новых продуктов, функций и технологий, которые приносят пользу как самим пользователям, так и обществу в целом.

Особое внимание было уделено использованию общедоступной информации для обучения языковых моделей ИИ и создания продуктов вроде Google Translate, чат-бота Bard и облачных ИИ-сервисов. Это дало Google гораздо более широкие возможности для сбора и анализа данных в целях развития искусственного интеллекта.

Однако эти изменения вызвали вопросы у членов команды по конфиденциальности. В августе двое из них обратились к менеджерам, чтобы прояснить, сможет ли Google начать использовать данные из бесплатных потребительских версий Google Docs, Google Sheets и Google Slides. По их словам, они не получили четких ответов.

Мэтт Брайант, представитель Google, заявил, что изменения в политике конфиденциальности были сделаны для ясности и что компания не использует информацию из Google Docs или связанных приложений для обучения языковых моделей "без явного разрешения" пользователей. Он уточнил, что речь идет о добровольной программе, которая позволяет пользователям тестировать экспериментальные функции.

"Мы не начали обучение на дополнительных типах данных на основе этого изменения формулировки", - подчеркнул Брайант.

Тем не менее, обновленная политика конфиденциальности дает Google гораздо больше пространства для маневра в плане использования пользовательских данных для развития ИИ. И хотя компания отрицает, что уже применяет информацию из своих офисных приложений для обучения языковых моделей, сама возможность такого использования вызывает вопросы у экспертов по конфиденциальности.

Ясно одно: в гонке за лидерство в сфере ИИ техногиганты готовы использовать все доступные ресурсы, и данные миллионов пользователей - слишком лакомый кусок, чтобы его игнорировать. Вопрос лишь в том, насколько далеко Google и другие компании готовы зайти в погоне за прогрессом, и сумеют ли они найти баланс между развитием технологий и защитой приватности своих клиентов.

Жажда данных и этические дилеммы: Как Meta* борется за лидерство в сфере ИИ

Марк Цукерберг, глава Meta, годами инвестировал в развитие искусственного интеллекта. Однако когда в 2022 году OpenAI выпустила свой чат-бот ChatGPT, Цукерберг внезапно осознал, что его компания отстает в гонке ИИ-вооружений. По словам трех нынешних и бывших сотрудников, он немедленно начал оказывать давление на своих подчиненных, требуя в кратчайшие сроки создать чат-бот, способный превзойти детище OpenAI. Руководители и инженеры получали звонки от босса в любое время дня и ночи.

Но уже к началу прошлого года Meta* столкнулась с той же проблемой, что и ее конкуренты: нехваткой данных для обучения ИИ. Ахмад Аль-Дахле, вице-президент компании по генеративному ИИ, сообщил руководству, что его команда использовала практически все доступные в интернете англоязычные книги, эссе, стихи и новостные статьи для разработки своей модели. Без расширения массива данных Meta* не сможет догнать ChatGPT, подчеркнул он.

В марте и апреле 2023 года лидеры бизнес-подразделений, инженеры и юристы Meta* практически ежедневно собирались, чтобы найти решение проблемы. Одни предлагали платить по 10 долларов за книгу, чтобы получить полные лицензионные права на новые произведения. Другие обсуждали возможность приобретения издательства Simon & Schuster, выпускающего книги таких авторов, как Стивен Кинг.

Но звучали и более радикальные идеи. Сотрудники говорили о том, что уже обобщали книги, эссе и другие произведения из интернета без разрешения правообладателей. Они всерьез рассматривали возможность и дальше "высасывать" защищенный авторским правом контент, даже если это грозило судебными исками. Один из юристов предупредил о "этических" проблемах, связанных с использованием интеллектуальной собственности без ведома и согласия авторов, но его слова были встречены гробовым молчанием.

Цукерберг требовал найти решение любой ценой. "Возможности, которые Марк хочет видеть в нашем продукте, мы сейчас просто не в состоянии обеспечить", - признал один из инженеров.

Несмотря на то, что Meta* управляет гигантскими социальными сетями, у компании не было достаточного объема пользовательских постов, пригодных для обучения ИИ. Многие пользователи Facebook* удаляли свои старые публикации, а сама платформа не располагала к созданию длинных текстов, подобных эссе. К тому же, после скандала 2018 года, связанного с передачей данных пользователей компании Cambridge Analytica, занимавшейся профилированием избирателей, Meta* была вынуждена ввести ограничения на использование информации о своих юзерах.

В недавнем обращении к инвесторам Цукерберг заявил, что миллиарды публично доступных видео и фотографий на Facebook* и Instagram*  представляют собой массив данных, превосходящий Common Crawl (базу из сотен миллиардов веб-страниц, используемую для обучения ИИ). Но хватит ли этого, чтобы догнать и обогнать конкурентов?

В своих внутренних обсуждениях топ-менеджеры Meta* признавали, что OpenAI, судя по всему, использовала защищенные авторским правом материалы без разрешения. И хотя некоторые сотрудники поднимали вопросы об этичности такого подхода и справедливой оплате труда авторов, общий вывод был таков: Meta* может последовать этому "рыночному прецеденту", так как получение лицензий от множества правообладателей займет слишком много времени.

"Единственное, что отделяет нас от уровня ChatGPT - это буквально объем данных", - заявил на одном из совещаний Ник Грудин, вице-президент по глобальному партнерству и контенту. По его мнению, Meta* может опереться на решение суда по делу "Гильдия авторов против Google" от 2015 года. Тогда Google отстояла свое право сканировать, оцифровывать и каталогизировать книги в онлайн-базе, доказав, что использовала лишь фрагменты произведений, трансформируя их и создавая новый продукт, что подпадает под принцип "добросовестного использования".

Однако этические вопросы никуда не исчезли. Как рассказал один из сотрудников, даже на встрече с участием Криса Кокса, главного директора по продуктам Meta, никто не озаботился тем, насколько честно и правильно использовать творческий труд людей без их ведома и согласия.

Похоже, в Meta* решили идти по стопам OpenAI и Google, не считаясь с правами авторов. Гонка ИИ-вооружений набирает обороты, и все средства хороши в борьбе за лидерство. Но сумеет ли Марк Цукерберг найти баланс между жаждой прогресса и этикой? Или погоня за "цифровой кровью" для ИИ-моделей окончательно затмит в его империи все моральные ориентиры? Пока страсти вокруг ИИ накаляются, нам остается лишь гадать, какие еще границы готовы переступить техногиганты в стремлении к технологическому превосходству.

Искусственные данные: Выход из кризиса или путь в никуда?

В то время как Meta* и Google лихорадочно ищут новые источники "цифровой крови" для своих ненасытных ИИ-моделей, Сэм Альтман из OpenAI предлагает иной подход к решению надвигающегося кризиса данных.

По его мнению, которое он озвучил на майской конференции, компании вроде OpenAI в конечном итоге начнут обучать свои алгоритмы на текстах, сгенерированных самим ИИ - так называемых синтетических данных. Идея проста: если ИИ-модель способна создавать правдоподобные тексты, то она может сама производить дополнительную информацию для своего развития. Это позволит разработчикам создавать все более мощные системы, не завися от защищенных авторским правом материалов.

"Как только мы преодолеем горизонт событий синтетических данных, и модель станет достаточно умной, чтобы генерировать качественную информацию, все будет в порядке", - заявил Альтман.

Однако концепция синтетических данных, хотя и не нова, таит в себе немало подводных камней. Исследователи бьются над этой проблемой годами, но создать ИИ, способный эффективно обучать самого себя, оказалось очень непросто. Модели, которые учатся на собственных результатах, рискуют попасть в замкнутый круг, где они лишь усиливают свои причуды, ошибки и ограничения.

"Данные для этих систем - как тропа через джунгли, - говорит Джефф Клун, бывший исследователь OpenAI, ныне преподающий информатику в Университете Британской Колумбии. - Если они будут обучаться только на синтетической информации, то рискуют заблудиться в этих дебрях".

Чтобы избежать этой ловушки, OpenAI и другие компании изучают возможность совместной работы двух разных ИИ-моделей. Одна система генерирует данные, а вторая оценивает их качество, отделяя зерна от плевел. Впрочем, исследователи расходятся во мнениях, насколько эффективным окажется такой подход.

Но топ-менеджеры ИИ-индустрии уже мчатся вперед на всех парах. "Все должно быть в порядке", - уверенно заявляет Альтман.

Возможно, синтетические данные действительно помогут техногигантам преодолеть кризис "цифровой крови" и вывести ИИ на новый уровень. Но не приведет ли погоня за искусственным разумом, способным воспроизводить самого себя, к непредсказуемым последствиям? Не заблудятся ли наши ИИ-помощники в дебрях собственных алгоритмов, оторвавшись от реальности и потеряв связь с миром людей?

Цена прогресса в эпоху ИИ

Гонка за "цифровой кровью" и стремление к созданию все более мощных ИИ-систем ставит перед человечеством непростые вопросы. Готовы ли мы пожертвовать приватностью, авторскими правами и этическими принципами ради технологического прогресса? Сможем ли мы сохранить контроль над своими творениями, когда они начнут воспроизводить сами себя? Опасность потерять ориентиры в цифровых джунглях искусственного интеллекта еще никогда не была столь реальной. Но одно можно сказать наверняка: мир уже никогда не будет прежним. Мы стоим на пороге новой эры, где границы между человеческим и машинным интеллектом становятся все более размытыми. И только от нас зависит, сумеем ли мы направить эту революцию в нужное русло и извлечь из нее максимум пользы для всего человечества.

Причем каждый из нас может внести свой вклад в эту дискуссию - делитесь своими мыслями в комментариях и ставьте оценки этой статье, ведь именно наши с вами комментарии повлияют в конечном счете на обучение какой-нибудь языковой модели.

Я рассказываю больше о нейросетях и делюсь иллюстрациями у себя на YouTube, в телеграм и на Бусти. Буду рад вашей подписке и поддержке.

*Meta и соцсети компании Facebook и Instagram признаны экстремистскими и запрещены в РФ.

Показать полностью 13
Отличная работа, все прочитано!