Загрузка...

От автора

Сэм Альтман у Такера Карлсона: главные заявления CEO OpenAI и почему это важно

10 сентября вышло жесткое интервью Сэма Альтмана с Такером Карлсоном, в котором журналист поднял не только тему развития ИИ, но и осветил вопросы приватности, морали и трагических последствий использования ChatGPT. Ниже — анализ ключевых высказываний Альтмана по основным темам разговора.

Передача данных властям

То есть федералы или штаты или кто-то из властей может прийти к вам и сказать: "Я хочу знать, что такой-то и такой-то вводил в чат-боте"? — Они имеют такое право, да

Мы хотим, чтобы для ИИ существовала такая же привилегия, как врачебная или адвокатская тайна. Но сегодня государство имеет право затребовать пользовательские данные у владельцев сервисов ИИ

Хотя Альтман выступает за создание особого режима конфиденциальности для ИИ, вместе с тем он публично признает, что государство имеет законные и весьма простые механизмы доступа к пользовательским данным, а значит, все разговоры с ChatGPT де факто контролируются властями США.

Доведение до суицида

Прямо сейчас, если у вас есть суицидальные мысли… мы не будем звонить на горячую линию… Но было бы разумно в случаях, когда молодые люди всерьез говорят о самоубийстве… мы могли бы сообщать властям об этом

5 тыс. человек в неделю совершают самоубийство, при этом около 10% из них общаются с ChatGPT… Может быть, мы могли бы дать им немного лучший совет

Если закон в стране гласит, что смертельно больному может быть предложен такой вариант [суицида], мы можем сказать — имеются [такие] возможности…

Во-первых, мы видим, что в текущих условиях OpenAI имеет право единолично определять критерии "кризисной ситуации", где требуется внешнее вмешательство, что фактически дает корпорации возможность решать, где заканчивается приватность.

Во-вторых, на фоне десятков судебных исков в адрес OpenAI о доведении до самоубийства Альтман "математизирует" трагедию, пытаясь переложить ответственность с ChatGPT и его внутренних настроек на статистику и общемировые тренды и используя софизмы о "смертельно больных стариках".

Бог и подмена морали

Для меня в этом нет ничего божественного или духовного…Я еврей, и у меня довольно традиционный взгляд на мир… я думаю, что в мире происходит нечто большее, чем то, что можно объяснить физикой

Мы консультировались с сотнями специалистов по философии морали… но в конечном счете решения принимаем мы… человек, которого вы должны считать ответственным, — это я

Отвергая любую сакрализацию, в т.ч. технологий, Альтман фактически ставит себя на место Бога, оставляя за собой право быть последней инстанцией в вопросах морали у ИИ. Пользователям предлагается не естественно сложившаяся система ценностей, а искусственно собранный внутри корпорации набор догматов, полный перечень которых нам неизвестен. Иными словами, ChatGPT является глобальным механизмом распространения этических взглядов узкого круга неизвестных людей.

Защита от дипфейков

Я и моя семья используем кодовое слово…Время от времени мы его меняем. Это простой способ защититься от deepfake

Глава крупнейшей ИИ-компании, прекрасно осознавая всю серьезность проблемы технологии deepfake, вместо системного решения вроде внедрения механизмов верификации предлагает примитивные бытовые лайфхаки, уходя от ответственности и перекладывая издержки на пользователей.

"Суицид" сотрудника OpenAI

У вас были жалобы от одного программиста, который сказал, что вы, ребята, по сути, крадете чужое и не платите за это, а потом он был убит. Что это было? — …большая трагедия, он покончил с собой

Нет, я думаю, его определенно убили. Были признаки борьбы…камера наблюдения, провода были перерезаны…И его мать утверждает, что он был убит по вашему приказу — Мне странно и грустно обсуждать это… Я предлагал [поговорить с ней], она не захотела

Наряду с темой суицида, данный вопрос стал самым напряженным для Альтмана моментом в интервью. Уйдя в глухую оборону, он продолжил придерживаться удобной версии о самоубийстве программиста Сучира Баладжи и всеми силами попытался создать впечатление, что потерял "близкого друга".