Чему учит нас история Open AI последних 5 дней?
Кажется, всё просто: повздорили, поскандалили на публику, помирились, поехали дальше. Обычная «Санта-Барбара», раздутая до невероятного масштаба. Но это только кажется. И тут есть важные уроки для каждого из нас going forward into AI future.
Ниже моя интерпретация 5 штук, которые произошли за последние 5 дней:
1. Даже самые сильные компании подвержены разрушению из-за человеческого фактора. Есть исследование на основе интервью основателей «не взлетевших» компаний, согласно которым 65% провалов стартапов = следствиее конфликта ко-фаундеров.
То есть, вкладываться в развитие лидерства и отношений → это на 100% важная инвестиция. Всегда.
Человеческий капитал как был важнее просто капитала, так и останется.
2. Отношения держатся на доверии, и утрата доверия практически всегда означает слом в отношениях. Если хочется крутых доверительных отношений (главный предиктор счастья и долголетия, между прочим) → важно работать с доверием. На всех уровнях: личном, семейном, командном, корпоративном, социальном, публичном. И даже на субличностном.
3. Потеряв доверие к OpenAI, люди стали диверсифицировать свое использование нейросетей. Генеративный AI даёт слишком сильное преимущество. Это как перейти от использования счётов к компьюетрам. Класть все яйца в корзину одного только производителя оказалось чересчур опасно для такой инвестиции.
4. Многие разработчики попробовали Open Source модели и поняли, что они не хуже, чем проприетарный ChatGPT. Давно назревавший вопрос — стоит ли платить за то, что делает небольшая группа людей за закрытыми дверми, или вложиться в то, что делает мировое сообщество открыто и для всех? Пока GPT выигрывает во всех тестах, но отставание других моделей становится все меньше.
5. Обнажилось противостояние двух групп людей — акцелератонистов (т. н. e/acc), и децелератонистов (decels). Первые выступают за движение вперед в области исследований и тестов AGI, вторые — за замедление этих исследований. Их яблоко раздора — безопасность.
Decels (типа Ilya Sutskever) видят большой экзистенциальный риск в таком наспех скроенном и быстром развитии нейросетей; e/acc (типа Sam Altman) говорят: "всё будет окей, не паранойте, мы примем меры, если что, и давайте двигаться дальше".
Это чертовски похоже на то, что происходит у человечества при скачках технологий (помните луддитов? амишей? и противостояние церкви и еретиков-ученых? вот примерно та же схема). Тот факт, что это стало ТАК сильно видно — сигнал масштабных перемен.
***
А что видите вы в этой истории с OpenAI?
Ponchik News | технологии, развитие, аутентичность в мире AI
Эххх, это прям классика корпоративного мира: компания принимает резонансное решение, заявляет о нём в конце пятницы (рынки закрыты)... ↓ В выходные всё бурлит в догадках, слухах. >>> Вы здесь <<< ↓ За эти два дня становится понятно, как это на кого повлияет. Первые инсайды. ↓ В пн обсуждение продолжается, но уже есть выводы, next steps и все, кому нужно, определились со своим отношением. Перчатки сброшены. *** В голову пришла метафора: OpenAI – это технологический ковёр-самолёт, прорыв настолько крутой, что неотличим от магии. Со стороны выглядит, что он парит над всем остальным, люди охают, ахают, тычут пальцем, восторгаются. Но как и у любого ковра, у OpenAI есть обратная сторона. И пока публика играет в игры с GPT на ковре, под ним происходят свои подковёрные игры. Кто играет пока неясно. Но скоро. Собрал топ-10 причин, которые сейчас звучат в медиа, того, почему OpenAI одним днём расстался с 2 фаундерами из 3х. Ниже опрос: что, как вам кажется, послужило причиной? Спекуляция, конечно, зато со шкалами 📝 ↓ 1. Сэм Алтман слишком увлёкся ускорением разработки GPT, не позаботившись о безопасности (AI alignment). 2. Алтман отказался от планов открыть GPT, и решил оставить его закрытым; вызвал батхёрт у коллег. 3. Внутри OpenAI был изобретён Общий Искусственный Интеллект (AGI), технические члены команды это увидели и решили рвануть стоп-кран, пока не поздно. 4. Алтман был замешан в серых схемах с другими компаниями/странами/полит. силами. 5. Алтман ушёл в коммерцию и увеличение $$, это взбесило тех, кто строил с ним некоммерческую организацию. 6. Другие тех. лидеры или правительства надавили на борд OpenAI с целью избавиться от конкурента. 7. Алтман «слишком много знал» 😎 8. Алтман совершил что-то непристойное и аморальное (e.g. sexual misconduct) — в OpenAI или за его пределами. 9. Правительство США поняло, что ИИ типа GPT — штука слишком опасная, и решило показать всем тех. компаниям, кто главный. 10. Алтман был замешан в каком-то $$ фроде, об этом стало известно совету директоров.