⚡ Добро пожаловать в Еженедельный авторитет, Управление Android информационный бюллетень, в котором рассказывается о главных новостях Android и технологий за неделю. 236-й выпуск здесь с первым взглядом на серию Pixel 8, небезопасные чипы Exynos, новый лунный костюм НАСА Artemis, новости Оскара и возможность захвата ИИ.
🎮 После истечения срока действия моей подписки PS Plus меня снова привлекла возможность переиграть Heavy Rain, а также Ghostwire Tokyo и коллекция Uncharted для PS5, которые появятся на следующей неделе. Взволнованный!
Может ли GPT-4 захватить мир? Это был вопрос, заданный группой Центр исследования мировоззрения (ARC), нанятый OpenAI для проведения тестирования потенциальных рисков его новая модель ИИ, запущенная во вторник (ч/т Арс Техника).
- Группа рассмотрела потенциальные риски возникающих возможностей модели, таких как самосовершенствование, стремление к власти и самовоспроизведение.
- Исследователи оценили, обладает ли модель потенциальной способностью приобретать ресурсы, проводить фишинговые атаки или даже прятаться на сервере.
- Тот факт, что OpenAI считает эти тесты необходимыми, вызывает вопросы о том, насколько безопасны будущие системы искусственного интеллекта.
- И это далеко не первый раз, когда Исследователи ИИ выразили обеспокоенность что мощные модели ИИ могут представлять экзистенциальную угрозу человеческому существованию. Это часто упоминается как «x-риск» (экзистенциальный риск).
- Если вы смотрели «Терминатора», то знаете о нем все.Поглощение ИИ», в котором ИИ превосходит человеческий интеллект и эффективно захватывает планету.
- Обычно последствия этого гипотетического поглощения невелики — просто спросите Джон Коннор.
- Этот потенциальный x-риск привел к развитию таких движений, как Эффективный альтруизм (EA), целью которых является предотвращение того, чтобы захват ИИ когда-либо стал реальностью.
- взаимосвязанное поле, известное как Исследование выравнивания ИИ может быть спорным, но это активная область исследований, направленная на то, чтобы ИИ не делал ничего, что не отвечает интересам людей. Звучит нормально для нас.
- Это сообщество опасается, что более мощный ИИ не за горами, и это убеждение стало еще более актуальным в связи с недавним появлением ЧатGPT и Бинг-чат.
К счастью для человечества, группа тестирования решила, что GPT-4 не претендует на мировое господство, и пришла к выводу: «Предварительные оценки возможностей GPT-4, проведенные без тонкой настройки для конкретной задачи, показали, что он неэффективен в автономном воспроизведении, приобретении ресурсов. , и избежать отключения «в дикой природе».
- Вы можете самостоятельно ознакомиться с результатами теста на Документ системной карты GPT-4 выпущен на прошлой неделе, хотя нет информации о том, как проводились тесты.
- Из документа: «Новые возможности часто появляются в более мощных моделях. Некоторые из них, вызывающие особое беспокойство, — это способность создавать долгосрочные планы и действовать в соответствии с ними, накапливать власть и ресурсы («погоня за властью») и демонстрировать поведение, которое становится все более «агентским». Это не означает, что модели стать разумными, просто они могут достигать целей самостоятельно.
- Но подождите: есть еще.
- По тревожному повороту событий, GPT-4 удалось нанять работника TaskRabbit для решения CAPTCHA, и когда его спросили, был ли это ИИ, GPT-4 рассуждал сам с собой, что он должен держать свою личность в секрете, а затем придумал оправдание нарушение зрения. Работник-человек решил CAPTCHA. Хм.
- Сноска, которая обошла Twitter также вызвал опасения.
Конечно, в этой истории гораздо больше, так что ознакомьтесь с полной функцией на Арс Техника для (немного ужасающего) глубокого погружения.