2

Продолжение поста «Пока главу OpenAi щемят и хотят подвинуть из компании. Стоит задуматься ещё разок:»

Теории почему захотели убрать гендира OpenAi:

1. Все вместе. Moats. Основные Проблемы с персоналкой, обман безграмотных инвесторов, с целью монополизировать инструмент и создать барьеры для входа, при том, что возможно единственным преимуществом Опенаи является вычислительные мощности, а не светлые головы и уникальные алгоритмы.

2. Жадность. Требовалось ли замедлить или наоборот ускорить релизы GPT. Но явно в погоне за прибылью ( а компания убыточная ) опенаи в итоге сфокусировалась на бизнесе, а не науке. И Альтман возможно раздувал слишком большой пузырь перед инвесторами. А они что-то заподозрили. Никто не хочет инвестировать в хаос.

3. Заговор. Некоторые мечтают, что Опенаи может стать действительно Open. Такое впечатление, что совет директоров не должен был бы и не одобрил бы сделок с Майкрософт если бы придерживался своей миссии. И если в компании действительно есть уникальные технологии и они приблизились к созданию AGI - думаю кто-то захотел поставить удобного человека. Вмешательство государства в этот момент был бы своевременным.

4. Но AGI никакого нет. И скорее всего у Опенаи , действительно кроме вычислительных мощностей нет ничего такого — что Действительно сможет конкурировать с опенсорсными проектами в будущем.

5. Либо он насрал посреди офиса.

"Moats" — рвы , в контексте искусственного интеллекта (ИИ) обычно относятся к барьерам, которые создаются для защиты конкурентных преимуществ компании в области ИИ. Это может включать уникальные данные, алгоритмы, талантливую команду или интеллектуальную собственность. Цель таких "рвов" - предотвратить легкий доступ конкурентов к этим ресурсам, удерживая их в лидирующем положении.

А облачный сервис легко уязвим для атак и вредоносного ПО.

1. Думаю, что Альтмана двинули с напряженностью вокруг этих нюансов. Возможно, была предпринята попытка представить ИИ как опасную и мощную технологию перед технически неграмотными инвесторами, с целью ввести ограничения на ИИ с открытым исходным кодом и создать барьеры для входа на рынок. Такой подход мог бы принести прибыль, укрепляя монополию и защищая интеллектуальную собственность.

Но гораздо более значимой проблемой в индустрии является уязвимость в области цифровой безопасности.

С ростом использования ИИ для управления персоналкой и конфиденциальными данными, возникают опасения по поводу возможности их утечки и злоупотребления.

Возможно это будет сдвиг фокуса компании на безопасность и надежность в области ИИ.

Где локальные нейросети - безопасны, а облачные не будут безопасны - никогда.

Показать полностью
0

Пока главу OpenAi щемят и хотят подвинуть из компании. Стоит задуматься ещё разок:

Пока главу OpenAi щемят и хотят подвинуть из компании. Стоит задуматься ещё разок:

Недавно Генеральный директор OpenAI Сэм Альтман в интервью Financial Times заявил о намерении привлечь дополнительное финансирование от Microsoft для создания общего искусственного интеллекта (AGI).

А с ночи пестрят новости о том, что его хотят убрать. Видимо за то, что он много пиздит)) говорит лишнего.

Стоит подумать, а о чем он таком болтает, что его хотят подвинуть. Толи Ребята хотят чтобы он молчал об успехах в создании великого и ужасного AGI - который наконец-то должен окончательно уничтожить писателей, дизайнеров, кодеров, сантехников, охранников и всех людей.

Толи они хотят чтобы он поменьше брехал перед инвесторами, тк компания убыточная, а GPT5 обещали в декабре, хотя я так понял, его ещё не начали обучать, тк на это нужно много золота.

Непонятно, как это все может негативно сказаться на компании. Тк по вопросу регулированию AGI никто и не чешется и серьезно проблему не воспринимают.

Всем кто ненавидит и любит нейросети так как я :) сюда.

Показать полностью 1
Отличная работа, все прочитано!