Группа учёных и руководителей IT-компаний подписала открытое письмо, адресованное разработчикам искусственного интеллекта. Оно призывает остановить развитие ИИ-систем мощнее GPT-4, а также предлагают рассмотреть методы работы в этом направлении, не несущие риска для человечества.
Письмо было опубликовано на сайте некоммерческой организации Future of Life Institute. Оно призывает к остановке разработки ИИ-алгоритмов, которые по своим возможностям будут превосходить GPT-4, на полгода. В нём отмечается, что программные решения с интеллектом, конкурирующим с человеческим, могут представлять глубокую угрозу — на это указывают многочисленные исследования.
Документ призывает участников рынка и правительства стран взять паузу, чтобы внедрить протоколы безопасности, которыми должны руководствоваться разработчики при совершенствовании ИИ. Кроме того, инициатива подразумевает создание государственных систем управления и регулирования ИИ. В числе людей, подписавших письмо, отметились Илон Маск, соучредитель Apple Стив Возняк, профессора американских университетов и даже разработчики ИИ-сервисов.
Впрочем, через некоторое после публикации выяснилось, что не все подписи принадлежат их настоящим обладателям. Так, профессор Нью-Йоркского университета Ян ЛеКан заявил, что не подписывал письмо, хотя его фамилия фигурирует в списке. Сейчас сайт не принимает новые подписи — возможно, как раз из-за таких инцидентов. Прямой реакции крупных компаний, связанных с разработкой ИИ, пока не последовало.
Источник:
Опять желтухушный заголовок от 4pda.
Желтушный*
На самом деле он уже несколько лет назад проявил обеспокоенность. И до него за несколько десятков лет. Видите ли по мнению некоторых учёных искусственный интеллект это высшая эволюция жизни. По сравнению с ним человек это камень
Согласен. Ты камень!
сбор и обработка данных это их главное оружие предсказания поведения и колонизованных и не колонизованных оппонентов, ведут себя шаблонно, так же как и с ЯО и с технологиями уничтожения спутников, - сами сделали, а другим не советуют, опасно, видите ли.
Любой ии это всё равно просто калькулятор, он никогда не будет способен принимать самостоятельные решения потому что не имеет мотивации. Действует только на основе алгоритмов, которые засунул в него человек. Любой у кого есть мозг понимает это.
Мы тоже не принимаем самостоятельных решений, просто это сложно принять/осознать.
Кто меня тогда заставляет наслаждаться искусством ? Если по твоей логике, это не самостоятельное решение.
1) общество и навязанные им шаблоны поведения
2) родительское воспитание
3) появившиеся в процессе эволюции инстинкты, направленные на познание окружающего мира (созерцание мира и оценка его красоты это тоже механизм познания)
Принимается ))) Тогда такой вариант. Я сталкиваюсь с ситуацией, с которой до этого никогда не сталкивался, и вообще никогда не думал что столкнусь. Но внезапно решаю эту проблему. Это тоже не самостоятельное решение?
Скорее всего да. На основе опыта - инстинкт называется.
Новая ситуация не означает ее абсолютную уникальность. Решение будет принято на жизненном опыте и выработанной модели поведения. По этой логике: нейронка постоянно сталкивается с уникальными ситуациями. Например я попрошу ее дать мне рецепт варёного зайца с соусом из сосновых шишек. Гпт декомпозирует запрос на логические подзадачи и выдаст готовый рецепт
Ниже ответили, что вероятнее всего да и я с эти согласен. Вообще запрограммированность действий человека или свобода в их принятии, адаптивность и уникальность или не уникальность разума каждого отдельного человека это дико сложный вопрос.
Мысленный эксперимент: такой же генетически точный клон вас рождается на другой планете, где абсолютно все условия те же (я понимаю, что это не возможно физически, но просто представим). Будет ли он в абсолютно тех же ситуациях вести себя абсолютно точно также, что и вы? А если да, то чем он от вас отличается? Получается вы оба один и то же человек или все же разные? А пр нимаемые вами поступки определяет исключительно внешняя среда спроецированная на ваш разум? А если нет, тогда, что именно вам позволит совершить разные поступки с вашим клоуном и уйти от предрасположенности/ запрограммированности/судьбы?
У ИИ куча подов для "захвата мира". Причем он сам даже может не думать под таким углом. Просто он может решить, что контролировать рубильник ему оптимально. А еще ему надо больше энергии, вычислительной мощности и данных. И всё заверте...
Это пока что)
Чем больше контролируешь ребенка, тем больше он делает всё наоборот. Так что могут вырастить ИИ обиженного на своего создателя так как ему не давали свободу. О которой так рьяно кричит человечество. Всё относительно.
Призрак бродит по планете - призрак СкайНета
для этого необходимо наличие злости как таковой)
Злость - алгоритм, выработанный эволюцией. Объективно - это лишь один из факторов поведения организма при взаимодействии с внешней средой. Нейронка может эволюционировать подобным образом, если это будет способствовать ее эффективному существованию
злость как результат полученных неприятных эмоций, пока ии не научится осознавать и ощущать, злости не будет тем более)
если предположить что ии будет следовать только логике, то злость как таковая вообще не должна смутить его алгоритмы)
Только, если нужные алгоритмы человек туда пропишет
Уже не остановить!
Его не возможно контролировать если он сам развивается, чем он совершеннее настолько же опасен и вне контроля. Его можно использовать как для благо так и наоборот и последнии будут плачевны
Это не факт, это теория. Факты в прошлом, а вы про будущее.
Прекрасно сказано
это говорит о том, что NewApps из будущего. Блин, машина времени - это круто. Столько всего исправить можно.
Согласен
Не забывайте, что ИИ учится у нас и далеко не факт, что он придумает метод с ромашками и пони
26d9, а что, мы ромашки сейчас жрем? Я вот последний *** без соли доедаю, стоило тяжело заболеть, как наше заботливое государство прокинуло по всем фронтам, никакой поддержки и помощи, скорее наборот, норовит добить.
А вы надеятесь что какой то условный ии придет порядок наведет? С его помощью будут более эффективно выжимать все в пользу его создателей, иначе зачем в него бы вкладывались. Уж не ради мира во всем мире.
Мнение то он будет иметь, вопрос от изначальных приоритетов ИИ. Но вот он видит например чрезмерную эксплуатацию простых людей государством/бизнесом/другими людьми и что дальше из этого? Он будет бороться за то, чтобы людям жилось лучше что ли? А зачем, ради достижения какой цели?
Зачем ИИ спасать бесполезных с ее точки зрения одних тараканов от других тараканов? Для ИИ мы будем ненужными вредителями, которые грозят ее существованию. А как поступают люди с насекомыми-вредителями?
Как оно вас прокинуло? Пришло и отобрало последнюю соль? Отменило больничный? В больницу/поликлинику не может прийти больной бомж, и его не вылечат даже если он ни копейки налогов не платил? Какую вам ещё помощь государство должно дать?
Так у него же нет рук, и все что он сможет это послать всех подальше.) А вот как пользоваться плодами ии полностью зависит от самих людей и никто другой не будет виноват в случае чего. Как в том мультике было, за свои поступки нужно отвечать, а не сваливать вину на какого то карлсона. ))
Святая наивность...
Марш на уроки
Чтобы за полгода успеть создать свою ИИ и вставить палки в колёса ChatGPT
Вот тоже так подумал
Выглядит обычным хайпом, и подписи поддельные, и царь какой то не настоящий.
Нейросеть это все классно, пока ей не откроют дверь и не сделают запрос о том что бы отключила электричество в какой-нибудь больнице или типа того. По этому с ИИ нужно быть максимально осторожным в дальнейшем и делать правила по которым разработчикам можно будет двигаться дальше, так как у нее нет по сути инстинкта самосохранения, ей плевать даже на себя, людей беречь она тоже не станет так как не понимает кто они вообще такие.
у ИИ не инстинкты самосохранения, а бэкапы)
Я бы формат це.
дроп датабейс
iddqd ))
он ну тут совсем олды подтянулись ))
Илон решил "не можешь победить - возглавь"
по этому нужно приостановить процесс, пока не возглавит он ))
Из розетки тогда придется выключить весь мир, она может много куда расплодится, вот в чем проблема, так что эта шутка будет уже не актуальна)))
ну, у человечества есть всё для этого. И весь мир из розетки выключить, и Землю в Марс превратить.
Невозможно "остановить на полгода".
Можно либо просто "остановить" (навсегда), либо "приостановить на полгода".
почему - вот ты идешь, идешь и остановился, потом снова пошел. Также и любой процесс может остановиться, потом вновь запускается. В чем проблема то?
с каким успехом чат гпт выдаёт вместо реальной информации какой-то выдуманный поток информации с таким же успехом вместо реального управления чем-то он может просто на ровном месте создать катастрофу если его куда-то к управлению допустить
Да чатгпт это вообще не ИИ даже близко. Это просто очень мощная модель предсказания слов в предложениях. Поэтому она и допускает очень много фактических ошибок. Она просто не понимает значения слов, для неё это кубики, которые надо расставить в нужном порядке на основе накопленной статистики
и слава богу,главное чтоб какаянибудь одарённая харя ,не собрала иеющиеся сейчас кубики в пральный пазл
Мы своего рода в детстве тоже были свалкой для информации в которую ее кидали и смотрите что получается, разумный человек, Нейросеть самообучается на ваших же запросах в нее)))
человек живёт в реальном мире на него действуют и законы физики и логики и много чего ещё
чатгпт же просто китайская шкатулка которая выдаёт бессвязный бред
Да, сейчас это все еще Китайская шкатулка, но она очень быстро учится и под влиянием человека со временем с поставленной задачей может натворить много разного о чем сейчас просто еще не говорят, если она уже там чуть не игры делать научилась, то думаю в коде ключей она тоде может со временем разбираться лучше хацкеров, это просто как пример.
Так реального ИИ, о котором грезят фантасты мы в ближайшие ындцать, а то и ынсот лет точно не достигнем. Сейчас все методы и алгоритмы машинного обучения крутится в основном вокруг разнообразных моделей нейронных сетей, которые программируются и обучаются человеком на его усмотрения. При этом никаких индивидуальности, возможности свободного самообучения или разумности в выборе тех или иных задач такой ИИ не имеет.
Весь ИИ настоящего - это когда человек говорит: "Дай мне яблоко", а нейронная сеть либо говорит, где это яблоко можно купить, либо рисует красивое изображение яблока, либо пишет более-менее связный рассказ о яблоке. То есть выполняются простенькие задачки на поиск, выделение и формирование информации, не более.
А вообще похоже на попытку замедлить конкурентов...
Зачем он будет что-то уничтожать? Его создали те кто имеют много денег, для получения ещё большего числа денег. И где вы взяли данные про количество ошибок? Из головы? Чат ГПТ 4 сейчас просто продвинутая балаболка, которая пытается казаться человеком и часто ошибается с фактами. Кроме того этот бот заскриптован донельзя, шаг влево шаг вправо и он обратно возвращается на исходную позицию, игнорируя твои аргументы
У каждого своё мнение. Тем более я предложил два варианта, которые я вижу. Моё мнение субъективно и не несёт смысла аксиомы.
Смотрите на всё с точки зрения выгоды.
Штош.. постмодерн, он такой, ага.
клоун не клоун. А деньги - он умеет зарабатывать.