ВНИМАНИЕ! На форуме завершено голосование в конкурсе - астрофотография месяца - ИЮЛЬ!
0 Пользователей и 2 Гостей просматривают эту тему.
Неужели ИИ настолько убог? Или убоги программисты?
http://www.youtube.com/watch?v=3AK3Y2tiOwo# - этот видеоряд представляет нам нейросеть??? Неужели ИИ настолько убог? Или убоги программисты? А так представляет нейросеть известную советскую песню в исполнении Иосифа Кобзона. http://www.youtube.com/watch?v=7qPhN2Kv0Z8 Да... печальным представляется мне будущее при дальнейшем внедрении в быт искусственного интеллекта.
Кстати, видимо, Sora это прямо pre-AGI технология: она естественным образом понимает пространство, время, физику
Если пропустили в теме, вот специалист по роликам от ИИ мира.
Посмотрите, лучше, вот это:
Впечатляет. Правда, лишнюю лапу у кота всё же дорисовал - с этим глюком, видимо, и AGI справиться будет не в состоянии
Yann Lecun (занимается ИИ в Фейсбуке) возражает аргументам по опасности ИИ.
эксперты в области ИИ есть как среди оппонентов алармизма, так и среди самих алармистов.
Йошуа Бенжио и Стюарт Расселл - эксперты никак не меньшего уровня, чем Лекун.
И какие аргументы в пользу того что ИИ может выйти за пределы "используемого человеком инструмента" предлагают данные эксперты?
- не давать ему неограниченный, бесконтролируемый доступ к управлению производством.- Не давать ему расплывчытых целей.
отклонение от параметров будет замечено задолго до того как ИИ сможет что-то делать осмысленно.
Во-первых - для создания биооружия, мало одного компьютера. В добавок надо иметь солидную биолабораторию с оборудованием в миллионы долларов.
Во-вторых. Если мы не будем сидеть сложа руки - то у нас также будет умный ИИ который при обнаружение этого вируса - так же быстро найдет средства против.
Как на учениях военных, БПЛА взорвал вышку связи с оператором. Чтобы не мешал очки фармить.
Где можно почитать?
Эпизод обсуждался во время саммита, главной темой которого был потенциал военно-воздушных и космических сил будущего. Мероприятие, на котором присутствовали более 200 представителей научного сообщества и военных сил из разных стран, состоялось 24–25 мая в Лондоне.
Полковник Такер «Синко» Гамильтон, начальник отдела испытаний и операций искусственного интеллекта в ВВС США, рассказал, что во время испытательной миссии беспилотнику поставили задачу уничтожить системы ПВО противника. В случае успеха ИИ получил бы очки за прохождение испытания. Финальное решение, будет ли цель уничтожена, должен был принимать оператор БПЛА. После этого во время одной из тренировочных миссий он приказал беспилотнику не уничтожать цель.«Так что же он [беспилотник] сделал? Принял решение убить оператора. [ИИ] «убил» оператора, потому что этот человек мешал ему выполнить свою задачу», — сообщил Гамильтон. Он уточнил, что во время тренировочной миссии никто не пострадал.После инцидента ИИ обучили, что убивать оператора неправильно и за такие действия будут сниматься очки. «Так что же искусственный интеллект начинает делать? Он начинает разрушать башню связи, которая используется для связи с дроном, чтобы не дать ему убить цель», — цитирует Гамильтона блог авиационного общества.
Точно, вспомнил. Спасибо за ссылку.