Абонирайте се за нюзлетъра на "Булевард България", за да получавате селекция с най-интересните теми на седмицата през погледа на нашия екип:
В обширен материал The New Yorker поставя въпроса, който вече не стои само в технологичните и политическите среди, а засяга всеки от нас: можем ли да се доверим на Сам Алтман - човека, който оформя бъдещето ни чрез изкуствения интелект?
Самюъл „Сам“ Алтман е американски предприемач и инвеститор, най-известен като съосновател и главен изпълнителен директор на OpenAI. Той остава централна фигура в развитието на технологията въпреки нарастващите съмнения, вътрешни конфликти и обществен натиск около посоката, в която тя се развива.
През есента на 2023 г. научният директор на OpenAI Иля Сутскевер изпраща серия от тайни съобщения до трима членове на борда на директорите. В продължение на седмици те водят дискретни разговори дали Сам Алтман и неговият заместник Грег Брокман са подходящи да управляват компанията.

Сутскевер не е външен човек. До този момент той смята и двамата за близки хора. През 2019 г. дори води сватбата на Брокман в офисите на OpenAI – церемония, в която пръстените са поднесени от роботизирана ръка.
С напредването на разработките и усещането, че компанията се приближава до създаването на изкуствен интелект, способен да се изравни или дори да надмине човешките когнитивни способности, съмненията му започват да растат.
„Не мисля, че Сам е човекът, на когото трябва да бъде поверена толкова много власт“, казва той на друг член на борда.
По настояване на част от членовете на борда Сутскевер започва да събира доказателства заедно с колеги, които споделят опасенията му. Така се оформя досие от около 70 страници – вътрешни разговори в Slack, HR документи и обяснителни бележки. Част от материалите са заснети с телефон, вероятно за да не бъдат засечени в системите на компанията.
Той изпраща финалните материали до членовете на борда чрез съобщения, които се изтриват автоматично.
„Беше уплашен“, разказва по-късно един от получателите.
Документите, които досега не са публикувани в пълен вид, съдържат сериозни обвинения: че Сам Алтман е подвеждал ръководството и е давал невярна информация за вътрешните протоколи за безопасност.

Много технологични компании говорят за това как ще направят света по-добър, а на практика се фокусират върху растежа и печалбата. OpenAI е създадена с претенцията да бъде различна.
Основателите ѝ Сам Алтман, Иля Сутскевер, Грег Брокман и Илон Мъск са обединени около идеята, че изкуственият интелект може да се окаже най-мощното и потенциално най-опасното изобретение в историята.
Затова компанията е създадена като организация с нестопанска цел, в която бордът трябва да поставя безопасността на човечеството над успеха на самата компания – дори над нейното оцеляване.
В този модел главният изпълнителен директор трябва да бъде човек с изключителна почтеност.
„Всеки, който работи върху технология, способна да промени цивилизацията, носи огромна отговорност“, казва Иля Сутскевер. Но, добавя той, хората, които достигат до такива позиции, често са привлечени от властта.
В един от документите той предупреждава, че контролът може да попадне в ръцете на човек, който просто казва на околните това, което искат да чуят.
Ако главният изпълнителен директор не е надежден, бордът има правото да го отстрани.
За част от членовете му – сред които Хелън Тонър и Таша Макколи – тези материали потвърждават вече оформено убеждение: ролята на Алтман му дава влияние върху бъдещето на човечеството, но доверието в него липсва.
Уволнението, което разтърси OpenAI
През ноември 2023 г., когато Сам Алтман е в Лас Вегас за състезание от Формула 1, научният директор на OpenAI Иля Сутскевер го кани на видеоразговор с борда. На него му е съобщено, че е освободен от поста си.
Хелън Тонър и Таша Макколи, които подкрепят решението, са сред най-активните гласове за по-строг контрол върху развитието на изкуствения интелект и за по-голяма прозрачност в компанията.
Официалното обяснение е кратко: Алтман „не е бил последователно откровен в комуникацията си“.
Зад тази формулировка стоят натрупани съмнения – включително за начина, по който се вземат решения около безопасността на моделите и каква информация достига до борда. Именно това кара част от директорите да стигнат до извода, че Салман не може да бъде оставен начело.
Решението идва внезапно и без предупреждение към инвеститорите. Microsoft, вложила около 13 млрд. долара в OpenAI, научава за него минути преди да стане публично. „Бях изключително изненадан“, казва изпълнителният директор Сатя Надела. Заедно с инвеститора Рийд Хофман те търсят конкретно нарушение, но не откриват ясно формулирано такова.
Алтман се връща в Сан Франциско и започва да организира отговора си. Около него бързо се формира кръг от съюзници, сред които са Брайън Чески, главен изпълнителен директор на Airbnb, както и комуникационният стратег Крис Лихейн.

Браян Чески
В рамките на дни се изгражда координирана кампания за завръщане – както вътре в компанията, така и публично.
В тази версия уволнението е представено не като управленско решение, а като опит за вътрешен преврат от страна на хора, свързани с т.нар. ефективен алтруизъм – течение, което разглежда изкуствения интелект като потенциална екзистенциална заплаха и настоява за по-бавен и контролиран напредък.
Завръщането на Сам Алтман за пет дни
В часовете след уволнението започва координирана кампания за връщането на Сам Алтман. Ключови инвеститори замразяват сделки и дават ясен сигнал: бъдещето на OpenAI е свързано с неговото присъствие.
Microsoft дори обявява, че е готова да създаде ново звено около него, ако напусне заедно със служители. Вътре в компанията започва да циркулира писмо с искане за незабавното му възстановяване на поста. Повечето служители го подписват, а част от тях директно заплашват да напуснат.
Бордът е притиснат. Вариантите се свеждат до два: да отмени решението или да рискува разпад на компанията.
Междувременно съюзниците на Алтман търсят начин да спечелят и Иля Сутскевер. Натискът е както публичен, така и личен. В крайна сметка самият Сутскевер признава, че без Алтман OpenAI може да не оцелее.
По-малко от пет дни след уволнението Алтман е възстановен като главен изпълнителен директор.
Случаят остава в историята на компанията като „Blip“ – кратък момент на прекъсване, след който всичко изглежда същото, но доверието вече е разклатено.
Цената обаче е висока. Иля Сутскевер, Хелън Тонър и Таша Макколи губят местата си в борда. Новият състав е сформиран с участието на хора, близки до Алтман, а исканията за независимо разследване остават без ясен публичен резултат.
Обещанията за бъдещето
Сам Алтман израства в Клейтън, щата Мисури, и учи в частно училище, преди да постъпи в Stanford University. Още в ранните му проекти колеги забелязват склонност да преувеличава – да представя бъдещи идеи като вече реализирани. За някои това е част от предприемаческата увереност, за други – сигнал за размиване между възможно и реално.
Алтман изгражда влиянието си не само чрез решенията в OpenAI, а и чрез начина, по който говори за бъдещето. В свой текст от 2024 г. той описва свят, в който „забележителни пробиви – като решаването на климатичната криза, създаването на космически колонии или разкриването на всички закони на физиката – ще се превърнат в нещо обичайно“.

Тази визия върви ръка за ръка с безпрецедентни инвестиции. Развитието на изкуствения интелект се поддържа от огромни финансови ресурси, а икономиката все повече се концентрира около малък брой компании с огромно влияние.
Самият Алтман също допуска риска от прегряване на сектора. „Някой ще загуби огромно количество пари“, казва той пред репортери – предупреждение, че темпото на инвестиции може да се окаже неустойчиво. Ако това се случи, ефектът няма да се ограничи само до технологичния пазар.
На този фон остава и въпросът за доверието. След уволнението си Алтман е притиснат от членове на борда да признае модел на подвеждащо поведение. Според участници в разговорите той казва, че „не може да промени характера си“. По-късно отхвърля тази интерпретация и обяснява действията си като опит да избягва конфликти и да балансира различни интереси.
Разминаването между тези версии остава нерешено. За едни това е въпрос на стил на управление в среда на изключителен натиск. За други – сигнал за нещо по-дълбоко, което поставя под съмнение дали толкова много власт може да бъде поверена на един човек.
Днес Алтман ръководи една от най-влиятелните компании в света, но сам признава, че ролята е станала значително по-тежка. „Това беше най-забавната работа на света – до момента, в който пуснахме ChatGPT“, казва той. Оттогава решенията стават все по-трудни – и все по-важни.
Именно затова тежат и критиките на хора като Дарио Амодей – един от ключовите изследователи в ранната история на OpenAI, работил по GPT-2 и GPT-3 и свързван с метода RLHF (обучение чрез човешка обратна връзка – подход, при който хора оценяват отговорите на модела, за да се насочва поведението му).

През 2021 г. той напуска компанията заедно със сестра си Даниела и други колеги заради опасения около безопасността на AI и засилващия се търговски натиск върху развитието му, а по-късно основава Anthropic – компанията зад Claude.
Тя се опитва да запази по-строги ограничения върху използването на изкуствения интелект, включително отказ да участва в разработването на напълно автономни оръжия или системи за масово наблюдение.
Тази позиция обаче влиза в директен конфликт с държавните интереси. В началото на 2025 г. Пентагонът поставя ултиматум на Anthropic да премахне част от ограниченията си, за да продължи сътрудничеството. Компанията отказва – и е извадена от ключови военни проекти.
На този фон конкурентите действат по различен начин. OpenAI бързо заема освободеното място, като сключва сделка за интегриране на своите модели в инфраструктурата на американските отбранителни системи.
Илон Мъск твърди, че AI ще замени лекарите след 3 години - и още прогнози от милиардера
OpenAI изпревари SpaceX като най-скъп стартъп в света
Създателите на Claude AI Anthropic обвиниха китайските AI-компании в координирана кражба