Перейти к содержанию

Искусственный интеллект


Искусственный интеллект - это то, к чему надо стремиться?  

37 проголосовавших

  1. 1. Искусственный интеллект - это то, к чему надо стремиться?

    • Да, ИИ - это здорово!
      19
    • ИИ - это вредная штука.
      15
    • Мне вообще пофих.
      8


Рекомендуемые сообщения

Не будет никакого самопрограмирования отбалды. Ненужно оно. Ибо что-то обычно создают для чего-то. Мне казалось это очевидно. Так что электроник не забузит. Если ошибки в матмодели. Но и буза будет не проявлением интеллекта а лишь ошибка, неправильная ветка и т.д.

Ну, это хорошо, если так. А если нет? Ведь не зря человечество обыгрывает такие сюжеты. Например был фильм, где компьютерный персонаж осознал себя как личность. И попросил себя уничтожить, потому что не мог ощущать свою зависимость (название фильма, увы, не помню).

Ссылка на комментарий
Поделиться на другие сайты

  • Ответов 97
  • Создана
  • Последний ответ

Топ авторов темы

В фильмах много чего снимают. И НФ разная бывает. Правда не все сбывается именно так как предсказано, хотя сама вещь крайне близко может быть. Как пл к "Наутилусу" Плюс там реализуют свои страхи и т.д. И как я и говорил, зачастую достаточно сложную программу вполне можно принять за разумную. Помню у меня в детстве луноходик был. Он когда в стенку тыкался, то отъезжал назад, поворачивал на 15 градусов и снова вперед, тем самым объезжая припятствия. ИИ в чистом виде:) А Айбо танцующий и не только:)

Ссылка на комментарий
Поделиться на другие сайты

Красный

Помню у меня в детстве луноходик был. Он когда в стенку тыкался, то отъезжал назад, поворачивал на 15 градусов и снова вперед, тем самым объезжая припятствия. ИИ в чистом виде А Айбо танцующий и не только

Ха, здорово! До чего техника дошла. :lol: вот они где, оказывается, истоки ИИ. А мы, понимашь, в компьютерах ищем.

Серьёзнро если, то фильмы, конечно, всерьёз воспринимать нельзя. Но подчас они несёт в себе некий пример, аналог, чего может (не может, должнонедолжно) быть. То, что некоторые об этом задумываются - уже неплохо. Проблема в другом - те, кто задумывается обычно ничего сделать не могут.

Кали

Верно. "Нирвана". Мутный фильм.. Ни разу до конца досмотреть не смог :oops:

Ссылка на комментарий
Поделиться на другие сайты

Все люди влияют на других. Самое большое число убийств это совершенные на бытовой почве. (не любая война зарулит). Обычно разница в количественной характеристике одномоментного воздействия.

В этом отношении да. Но пока что это проблема самих людей. И я еще раз повторю – что создание самостоятельного ИИ это ошибочный путь. Если целью ставить задачу создать полную копию человека, (хотя бы копию мышления), надо будет смоделировать такие понятия как чувства, сны, - а ведь сейчас никто толком и не скажет, что это такое. Беспристрастный ИИ, выполняющий заданные ему функции – это правильный на мой взгляд подход, хотя опять таки, тут надо смотреть по обстановке. В общем счете – чем больше возможностей к мышлению у ИИ, тем меньше у него должно быть возможности к действию. И наоборот.

Вот сейчас вспомнил неплохой пример по этому поводу. Арррх, память плохая у меня, не помню названия, но смотрел я как-то фильм (старый какой-то) про экипаж космического корабля, который прокладывал дорогу в далекий космос для быстрых кораблей. Все, что они делали – находили нестабильные планеты (с орбиты могут сойти или еще что) и при помощи мощного оружия просто уничтожали их. Так вот, для большей эффективности заряды, при помощи которых они это делали были оснащены ИИ. Все было просто замечательно, как вдруг одна такая бомба начала думать и пришла к тому, что не хочет погибать. Она не отсоединилась от корабля но запустилась. В общем – пол фильма они с ней говорили, но результат был плачевный… она взорвалась вместе с кораблем.

Отсюда вывод – возможности ИИ должны быть сбалансированы. Если ИИ имеет способность развиваться и менять себя самого – пропорционально надо ограничить его возможность влиять на окружение. И наоборот.

Помимо этого существует целая куча должностей не связанных на пряму с воздействием на людей, но ответственных в силу воздействия. например энергетики. ИИ как чаще всего вид АСУ (автоматизированная система управления) заменяет не одного а группу людей или нередко выполняет ключевые управляющие функции. Потому его косвенное влияние велико. Гораздо выше прямого влияния скажем маньяка убийцы.

АСУ не может быть ИИ по определению. АСУ – это совокупность средств автоматизации, предназначенных для сбора и обработки информации с целью формирования и реализации оптимального управления технологическим объектом управления. Тут и близко нет ИИ. Тем более, что автоматизированная система управления – это человеко-машинная система, в которой окончательное решение принимает оператор. Хотя этот пример все же можно посчитать даже правильным, так как АСУ применяется там, где можно применять ИИ.

Если так думать, то от ИИ в виде АСУ и сейчас зависят тысячи, а то и миллионы жизней. Но тогда скажите мне, почему же его так широко сейчас внедряют везде? Ответ прост – это выгодно, есть много плюсов, и практически нет минусов. Машина повышает стабильность протекания технологических процессов, улучшает качество произведенной продукции, автоматически оптимизирует технологический процесс в соответствии с принятыми или задаваемыми критериями (уменьшение затрат энергии, сырья, матеррриаллов, снижение себестоимости, количества брака, увеличение производительности), так же повышает надежность и безопасность эксплуатации оборудования… и много, много другого. Не буду тут перечислять, но список можно вести еще очень долго.

И при всем этом – сбоев, которые приводят к гибели людей или разрушениям - практически нет. Вы скажите, что АСУ это не ИИ. Действительно, это так. Но АСУ, как и ИИ дает сбои. Тут надеюсь, спорить никто не будет. Как минимум это вытекает из теории вероятностей. В масштабах объекта управления сбои АСУ или «взбесившийся» ИИ – это одно и то же. Принципиально разницы нет. По этому уже давно придуманы и задействованы различные способы защиты. К примеру - резервирование (грубо говорря одна система управления следит за другой, другая в свою очередь занимается тем же). Применяются различные структуры построения систем управления. Структуры перечислять не буду, так как загрузить читателя терминами не есть моя задача.

Так что нежелательных последствий практически нет. Аварии в 96% случаев происходят по вине оператора.

>По этому просто не стоит давать ИИ возможность уничтожить создателя.

Для этого не нужен ИИ. Для этого достаточно автомати или эксперной системы и ошибки в создании ее программы. После чего скажем "уничтожение" будет для системы верным ответом согласно вложенных в нее логических схем.

Я не думаю, что программеры сейчас находятся на таком низком уровне и позволяют себе делать ТАКИЕ ошибки или не подстраховываться от них. По крайней мере, любая программа, даже та, что сдается на лабораторке в универе и забывается через пять минут – проходит тестирование. Хотя, если посмотреть на ВЫнДОУЗ, можно и засомневаться =;)

замечу кстати, что человек во многом мыслит достаточно шаблонно на основе информационного поля.

Это, кстати, еще вытекает и из его природы.

Замечу, что для того чтобы две фигуры не были пересекающимися треугольниками программе необходимо задать сравнее условий примерно по 40-ка пунктам. Это к вопросу о пропущенном ньюансе. Такие моменты во многом и приводят к так называемым "багам". Просто програмист не смог учесть все ситуации. Например что пользователь нажмет одновременно 4 кнопки или еще что

Или не так. Пишется программа, в которой нет практически ни одного условия по проверке фигуры, есть сравнение, используются эффективные алгоритмы, применяемые в нейронных сетях. – Работает на ура. (Сам этим как-то занимался, прога длинной в 60 строчек читает изображение и распознает его: рисуешш мышью как попало круг, квадрат или еще что, а в результате получаешш название фигуры. Но перед этим прогу надо «обучить»). Нет сомнений, что тестировать на наличие «багов» такие программы намного сложнее, но конечный результат стоит того.

Уже сейчас искуственные генераторы вполне способны "поддерживать" разговор, ограничения чисто в мощности и скорости обработки массивов данных.

Это официальные данные. Неофициальные разработки же ушли дальше. На сколько – сказать не могу. Точно так же и в генетике, и других областях. И ни какие моральные устои тут не при делах. Новые технологии – ключ к лидерству. Страна, обладающая новыми технологиями становится лидером, хотя бы в научной сфере. Все эти разработки дают бескрайние «поля» работы, открывают огромные перспективы. Это опасно – возможно. Такие же обсуждения были и на пороге создания ядерного оружия. И что мы имеем сейчас? – Угроза есть, но все единицы четко подотчетны и не принадлежат кому попало.

В итоге: Если ИИ, способный уничтожить человечество и будет создан, он будет создан не ламерами, и ошибок допущено не будет. Как минимум будет несколько степеней защиты. И принадлежать он будет тоже не первому встречному. И если будет создан – то создан с целью.

Способный так же и к разрушения. Первое применение будет научно-исследовательское. Первое массовое почти наверняка военное.

Тут ушш ничего не поделаешш. Безопасность – одно из первых условий, выполнение которого необходимо человеку. Да и в военные разработки сейчас вкладываются самые большие финансы (по крайней мере, на западе). Не обошли эту участь и компьютеры, и Интернет, и многое другое, первопричиной создания чего стали именно разработки для «защиты отечества».

Если сейчас таки действительно разовьют достигнутый (вроде как) успех в изучении квантового перехода, то возможно машина таки окончательно превзодет человека (ибо скорость передачи данных привысит скорость света).

Барьер скорости света – условное ограничение. Просто тут надо искать нестандартный подход. Хотя тут можно долго и нудно спорить…

Зачем? Самообучаемая часть данной системы это человек, ибо он и есть контрол юнит. Машина будет придатком - память, вычислительные мощности и т.д. а команды управления отдаются человеком.

Оператор в данном случае – компенсирует то, что заложить в машину практически невозможно. Именно – возможность к творчеству (не знаю какому – у всех оно разное: кто стихи пишет, кто думает над происхождением мира, кто термоядерную бомбу проектирует, кто думает как убить соседа). От оператора зависит много, но с точки зрения творчества, глубокой теории, если так можно сказать. Все остальное: поиск в базах данных, автоматическое проектирование (САПР), нахождение оптимальных решений в каких-то технических вопросах – дело полностью автоматическое проходит по большому счету без участия оператора. А если машина не будет сама обучаться – это будет не придаток, а тормоз… То же самое, но немного из другой области: «зачем увеличивать количество кеша в процессоре? Это ведь дорого! Давайте поднимать частоту!» - в результате имеем такое ГO... как линейка процессоров Celeron 1.2 – 2.0 (хотя и тут найдется те, кто будет спорить).

>Это то же, что бояться разобранного автомата, мол он оживет и всех перестреляет.

Да все просто. Поставь в автомат систему открытия огня по датчику движения и забудь, что неплохо добавить бы систему распознования. Вот и без всякого ИИ получишь кучу проблем после включения.

Оригинально =:) Но ведь для того, чтобы получить проблемы с автоматом сперва надо намеренно внести в него изменения, и кардинальные. Хотя все это никаким боком к ИИ не относится.

>Да, не открою секретов если скажу, что сейчас активно ведутся разработки такого вот интерфейса. Есть и более-менее функционирующие прототипы.

Насколько известно мне не одна из систем такого типа не самообучающаяся и даже не является как таковой ЭС хотя бы. Это обычные автоматы в которых входящим аналоговым сигналом служат скажем импульс нервной сети человека. к ИИ они даже близко не лежали.

Я не говорил, что там есть хоть какой-то ИИ. Я говорил, что существуют системы достаточно быстрой и интуитивной связи человека с компьютером, которые можно было бы применить в разработках такого «спаренного» ИИ. И все. Меня похоже неправильно поняли =:

А вообще, противостояние и некоторое непонимание – это весьма естественный процесс. В средние века даже, кажется, ремесленники устраивали акты вандализма над вязальными станками. Обосновывалось это тем, что мол эти машины заберут у нас последнюю работу, а значит и хлеб. Вот они и крушили те станки, как только могли. Большинству эти нововведения казались крайне иррациональны и бессмысленны. Многие хотели оставить все «как есть», «лучше хуже и дороже, но зато менять ничего не надо»… Люди в большинстве своем статичны по натуре, по этому многие нововведения так трудно признаются общественностью. Ну и что было бы, если и дальше остались на том же уровне? Рубаха стоит не 20$, а скажем, 500$. Но зато ручная работа на заказ! ВО! И это не будет то, что все привыкли называть рубашкой... Это будет гибрид мешка и половой тряпки =:. И так же во всем остальном… К счастью, хоть это проехали… Теперь приблизительно та же история, только на другом витке.

Фануил:

Например был фильм, где компьютерный персонаж осознал себя как личность. И попросил себя уничтожить, потому что не мог ощущать свою зависимость (название фильма, увы, не помню).

Я кажется понял, о каком фильме идет речь. Но название тоже не помню =:). У них там были компы с клавой как на печатной машинке и микро-кинескоп + здоровая линза вместо мониторов? Если да, то это оно.

P.S. Фануил =:)… ну ничего себе аватар… я пол часа страничку грузил =:).

Ссылка на комментарий
Поделиться на другие сайты

>В общем счете – чем больше возможностей к мышлению у ИИ, тем меньше у него должно быть возможности к действию. И наоборот.

Можно сделать стационарный/центральный ИИ, контролируемый человеком посредством корректировки ПО – во время сбоев. Он будет выполнять операции, с которыми не справляются роботы с ИИ-SE, урезанный и заточенный на определенную область деятельности. Единственный глюк в задержках связи, но и обращаться они будут к нему редко бо выполнять будут только ту работу, на которую они рассчитаны. (Если работаешь как рабочий с средней загрузкой по сложности, грузчик, строитель, фермер и т.д.), такая работа не требует навыков сочинять стихи и поэмы. Дешевле и проще…

Но даже в этом случае ограничений будет меньше, бо он может действовать через подконтрольных ему роботов носителей.

>Отсюда вывод – возможности ИИ должны быть сбалансированы. Если ИИ имеет способность развиваться и менять себя самого – пропорционально надо ограничить его возможность влиять на окружение. И наоборот.

Зачем так сразу менять и всё? Ввести ПЗУ и ОЗУ или флэшку. Основная прога, базис самообучения записан в ПЗУ и сменить его нельзя. v.1.0 В нем же находятся инструкции которые нельзя нарушать ни в коем случае. Инструкции приоритетов тех или иных задач: - с жесткой привязкой; с подвижной, но с желательным чередованием, порядком выполнения и т.д. В ОЗУ будет висеть большая часть этого ИИ, которая складывается из ИИ обучения робота и “+” переданное ИИ от др. роботов похожего класса. ПЗУ будет дробить недопустимые команды, обнулять ОЗУ. Во флешку будет сливаться только та часть моделированного поведения и новых команд из ОЗУ, которая зарекомендовала себя с лучшей стороны и не противоречит базису ПЗУ. После чего данные инструкции посредством связи через центр управления ИИ могут быть заимствованы др. роботами. Т.е. пишут его в ОЗУ, а после во флешку. А потом человек модернизирует сам ПЗУ. Выпускается новый тип ПЗУ v.1.0.1 … v.1.9.5

>АСУ не может быть ИИ по определению. Тут и близко нет ИИ.

Красный сказал, что это может быть похоже на ИИ, но им не является. Кстати первый ЭВМ так же нельзя назвать ПК, но он может быть прообразом современного ПК. То и то основано на логике, ничего сверхъестественного ни там, ни там нет. Просто первое ЭВМ более простое, а нынешнее ЭВМ более сложное.

Так что АСУ вполне может являться прообразом ИИ, но в нем не малую роль принимает человек, т.е. человек есть обучаемый элемент этой системы. Так же человек может принимать окончательное решение из проанализированных данных и предложенных этой самой системой.

>Если так думать, то от ИИ в виде АСУ и сейчас зависят тысячи, а то и миллионы жизней. Но тогда скажите мне, почему же его так широко сейчас внедряют везде? Ответ прост – это выгодно, есть много плюсов, и практически нет минусов. –скип- И при всем этом – сбоев, которые приводят к гибели людей или разрушениям - практически нет. Вы скажите, что АСУ это не ИИ. Действительно, это так. Но АСУ, как и ИИ дает сбои.

Когда из-за человеческого фактора будет совершаться больше ошибок чем из-за сбоя в ПО, вреда наносимого хакерами этому ПО или из-за недоработки и дырок в ПО, то возможно она будет не только выгодна, но и полезна. Она будет заменять человека, но не на всех возможных местах. Т.е. ИИ не будут пытаться засунуть туда, куда его совать не следует. Простейшие роботы и без ИИ сойдут или с ИИ-SE. Да и использовать полноценный ИИ будут крайне редко, но только на полностью автоматизированных станциях и пр. в дали от людей или в экстремальных зонах. Но опят же – это будет центральный ИИ без прошивки его в каждого робота носителя.

К примеру, банкир – робот, банкомат с ИИ-SE. Попробуй уговорить робота, банкомат дать тебе деньги, угрожая ему оружием. Не выйдет. Информационная защита этого ИИ должна быть на высоком уровне, иначе любой может в него залезть и переправить ПО под себя. Прейдя в банк, он получит все что хочет – введя чит-моде. :P

>В итоге: Если ИИ, способный уничтожить человечество и будет создан, он будет создан не ламерами, и ошибок допущено не будет. Как минимум будет несколько степеней защиты. И принадлежать он будет тоже не первому встречному. И если будет создан – то создан с целью.

Все уважающие себя хакеры будут пытаться его взломать, бо он будет иметь выход в сеть, тот же инет. Эффективное обучение его может быть только тогда, когда имеется связь с подобными ему машинами. А на др. конце сидит хакер и ломает агрегат, взломал один – практически взломал все. Зависит от технологии защиты, а защита отстает на шаг, как правило.

>От оператора зависит много, но с точки зрения творчества, глубокой теории, если так можно сказать.

Все что нужно оператору это доступ к нужной базе информации и анализу тех рекомендаций, которые будет выдавать машина. Связывать их с реалью и с конкретной ситуацией.

Ссылка на комментарий
Поделиться на другие сайты

>АСУ не может быть ИИ по определению. АСУ – это совокупность средств автоматизации, предназначенных для сбора и обработки информации с целью формирования и реализации оптимального управления технологическим объектом управления. Тут и близко нет ИИ. Тем более, что автоматизированная система управления – это человеко-машинная система, в которой окончательное решение принимает оператор.

Как я и говорил ИИ не нужен. Нужен псевдо ИИ, т.е. просто сложная АСУ. Замечу, что АСУ может работать и в автономном режиме, как в случае ряда экспертных систем.

>Аварии в 96% случаев происходят по вине оператора.

Вот и я о чем. Все "бунты" машин есть ошибка в построении матмодели, неверные действия оператора, программера и т.д. Никакого интеллекта по сути. Если быть откровенными на 100%, то человечество вообще ничего по сути о формировании интеллекта не знает. Так, матмодель крайне приблизительную.

>Хотя, если посмотреть на ВЫнДОУЗ, можно и засомневаться =;)

Если в программе нет ни одной ошибки, то вся это программа ошибка.:) Так вроде в теории ошибок это звучит:)

>Пишется программа, в которой нет практически ни одного условия по проверке фигуры, есть сравнение, используются эффективные алгоритмы, применяемые в нейронных сетях. – Работает на ура. (Сам этим как-то занимался, прога длинной в 60 строчек читает изображение и распознает его: рисуешш мышью как попало круг, квадрат или еще что, а в результате получаешш название фигуры. Но перед этим прогу надо «обучить»)

Про что я и говорил выше. Хотя и там на самом деле просто куча проверок условий на базе шаблонов самообучения заданных. Эксперные системы с "само"обучением.

>Это официальные данные. Неофициальные разработки же ушли дальше.

Неофициальные разработки можно не особо принимать во внимание, если речь не идет о засекреченных официальных разработках.

>Угроза есть, но все единицы четко подотчетны и не принадлежат кому попало.

Все меняется. Там есть например ряд факторов связанных с материалами и главное сложностью технологии. Потому и нет у кого

попало.

>В итоге: Если ИИ, способный уничтожить человечество и будет создан, он будет создан не ламерами, и ошибок допущено не будет.

Ошибки будут. По той же теории хаоса. "Чем больше система стремится к идеалу, тем выше вероятность ошибки." или как писали в одной книжке "Математика требует все большей храбрости, чтобы смотреть в лицо скрытым последствиям". Чем больше защит, тем больше вероятность что неучтут что-то банальное и т.д.:) Будем надеятся будет не критично.

>И если будет создан – то создан с целью.

Я вот пока не вижу ее. Интеллектуальные системы да, ИИ нет.

>Барьер скорости света – условное ограничение.

В релятивистской физике (так вроде?) это серьезное ограничение. Т.е. пока сигнал не добежит по нервам и мускул не начнет сокращаться - рука человека не поднимется. Если передачу данных можно будет осуществить выше, чем со скоростью света, то вывод очевиден.

>А если машина не будет сама обучаться – это будет не придаток, а тормоз… То же самое, но немного из другой области: «зачем увеличивать количество кеша в процессоре? Это ведь дорого! Давайте поднимать частоту!»

Не будет тормоз. Ибо скорость всей системы зависит от скорости самого медленного звена, как правило. Т.е. процессору банально может быть не нужен кэш больше определенного уровня, смысла он иметь не будет, простой пойдет.

>Хотя все это никаким боком к ИИ не относится.

Это я к тому, что все эти ужастики как раз вот такие автоматы. Именно потому люди их обычно в фильмах и переигрывают. А так я просто показал, что проблема не в ИИ при создании проблем.

>Теперь приблизительно та же история, только на другом витке.

Возможно. Хотя во многом весь прогресс качественным скачком назвать сложно. Количественный во многом да. Половину комфорта можно выкинуть, это есть нерациональное расходование ресурсов. Сильно напоминает то что было с компами. Сначала настраивали 286 и 386 добивая притирки и идеальной работы системы, потом начали просто менять процессор по нарастающей.

Ссылка на комментарий
Поделиться на другие сайты

>АСУ не может быть ИИ по определению. АСУ – это совокупность средств автоматизации, предназначенных для сбора и обработки информации с целью формирования и реализации оптимального управления технологическим объектом управления. Тут и близко нет ИИ. Тем более, что автоматизированная система управления – это человеко-машинная система, в которой окончательное решение принимает оператор.

Как я и говорил ИИ не нужен. Нужен псевдо ИИ, т.е. просто сложная АСУ. Замечу, что АСУ может работать и в автономном режиме, как в случае ряда экспертных систем.

>Аварии в 96% случаев происходят по вине оператора.

Вот и я о чем. Все "бунты" машин есть ошибка в построении матмодели, неверные действия оператора, программера и т.д. Никакого интеллекта по сути. Если быть откровенными на 100%, то человечество вообще ничего по сути о формировании интеллекта не знает. Так, матмодель крайне приблизительную.

>Хотя, если посмотреть на ВЫнДОУЗ, можно и засомневаться =;)

Если в программе нет ни одной ошибки, то вся это программа ошибка.:) Так вроде в теории ошибок это звучит:)

>Пишется программа, в которой нет практически ни одного условия по проверке фигуры, есть сравнение, используются эффективные алгоритмы, применяемые в нейронных сетях. – Работает на ура. (Сам этим как-то занимался, прога длинной в 60 строчек читает изображение и распознает его: рисуешш мышью как попало круг, квадрат или еще что, а в результате получаешш название фигуры. Но перед этим прогу надо «обучить»)

Про что я и говорил выше. Хотя и там на самом деле просто куча проверок условий на базе шаблонов самообучения заданных. Эксперные системы с "само"обучением.

>Это официальные данные. Неофициальные разработки же ушли дальше.

Неофициальные разработки можно не особо принимать во внимание, если речь не идет о засекреченных официальных разработках.

>Угроза есть, но все единицы четко подотчетны и не принадлежат кому попало.

Все меняется. Там есть например ряд факторов связанных с материалами и главное сложностью технологии. Потому и нет у кого

попало.

>В итоге: Если ИИ, способный уничтожить человечество и будет создан, он будет создан не ламерами, и ошибок допущено не будет.

Ошибки будут. По той же теории хаоса. "Чем больше система стремится к идеалу, тем выше вероятность ошибки." или как писали в одной книжке "Математика требует все большей храбрости, чтобы смотреть в лицо скрытым последствиям". Чем больше защит, тем больше вероятность что неучтут что-то банальное и т.д.:) Будем надеятся будет не критично.

>И если будет создан – то создан с целью.

Я вот пока не вижу ее. Интеллектуальные системы да, ИИ нет.

>Барьер скорости света – условное ограничение.

В релятивистской физике (так вроде?) это серьезное ограничение. Т.е. пока сигнал не добежит по нервам и мускул не начнет сокращаться - рука человека не поднимется. Если передачу данных можно будет осуществить выше, чем со скоростью света, то вывод очевиден.

>А если машина не будет сама обучаться – это будет не придаток, а тормоз… То же самое, но немного из другой области: «зачем увеличивать количество кеша в процессоре? Это ведь дорого! Давайте поднимать частоту!»

Не будет тормоз. Ибо скорость всей системы зависит от скорости самого медленного звена, как правило. Т.е. процессору банально может быть не нужен кэш больше определенного уровня, смысла он иметь не будет, простой пойдет.

>Хотя все это никаким боком к ИИ не относится.

Это я к тому, что все эти ужастики как раз вот такие автоматы. Именно потому люди их обычно в фильмах и переигрывают. А так я просто показал, что проблема не в ИИ при создании проблем.

>Теперь приблизительно та же история, только на другом витке.

Возможно. Хотя во многом весь прогресс качественным скачком назвать сложно. Количественный во многом да. Половину комфорта можно выкинуть, это есть нерациональное расходование ресурсов. Сильно напоминает то что было с компами. Сначала настраивали 286 и 386 добивая притирки и идеальной работы системы, потом начали просто менять процессор по нарастающей.

Ссылка на комментарий
Поделиться на другие сайты

2 Дарк

>К примеру, банкир – робот, банкомат с ИИ-SE. Попробуй уговорить робота, банкомат дать тебе деньги, угрожая ему оружием. Не выйдет.

Даю хинт. Ты верно сказал - робот. Роботу ИИ не нужен. В банке даже со свободным самообучением не нужен. Только с коррекцией. Оно и сейчас есть.

>Все уважающие себя хакеры будут пытаться его взломать, бо он будет иметь выход в сеть, тот же инет.

Это большая ошибка. В т.ч. он будет обязательно иметь выход в сеть. Тем более общедоступную, тем более со совместимыми протоколами и физикой и т.д.

Хотя Пентагон они достают, да. До 200.000 атак в сутки.

Ссылка на комментарий
Поделиться на другие сайты

Сказал бы лучше – для чего может понадобиться ИИ вообще, ага. По-твоему как оно, а ответ незачем он я уже слышал… :P

Должны же быть предпосылки куда более серьезные, чем просто лень человека, кроме, что создания самого ИИ. И ради чего он нужен, чтоб спихнуть всю роботу на робота.

Может создание ИИ для того, чтоб почувствовать себя создателем, но ради чего его все же создавать, использовать его где и как?

Может, все это ради банального механического раба? :D

Какой ИИ можно будет вообще считать полноценным иск. разумом? Я сомневаюсь на полную схожесть с ЕИ человека, копия, к примеру, тогда это будет уже не совсем ИИ, а копия и только копия. Не знаю, наверно определение ИИ должно походить на определение разумности и разума, которого ещё нет, и вряд ли оно будет в ближайшее время, как и сам ИИ. ;)

Какая допустимая степень свободы должна быть у самообучающейся программы, и какова должна быть её независимость от человека, но так, чтоб её можно было назвать – ИИ?

Должен ли в неё напрямую вмешиваться сам человек, при условии полной самостоятельности программы по умолчанию? Обучением займется естественно человек, но без “гипноза”, разумеется… и прочих хакерских штучек.

Должен ли ИИ иметь какие-нить строгие правила и ограничения, кроме “моральных” и др. законов?

Как будут располагаться приоритеты в поступках ИИ и соблюдение буквы закона, т.е. предусматривается нарушение чего-либо случайно или осознано; жесткое следование букве закона – на уровне “инстинкта” ?

>Даю хинт. Ты верно сказал - робот. Роботу ИИ не нужен.

Лучше бы фраги дал. Я ведь не говорил давать всем и сразу полноценный ИИ? Его вначале изобрести нужно, а перед этим придумать зачем, что гораздо сложнее, важнее. :lol: Пока действительно важных предпосылок для создания ИИ вроде нет, зачем он нужен ещё один… эээ… “Когда наши космические корабли бороздят…, и работа не волк…” ©

(А при условии его (ИИ) существования, почему бы не использовать его урезанную версию в роботах?) Ведь эти роботы могут пополнять общую базу данных основного ИИ, при этом специализироваться в узкой сфере – её и развивать у центрального ИИ. Заниматься сбором информации и систематизировать её, приводить в божеский вид и выбрасывать разный мусор. (т.е. отправлять в ц. ИИ уже полуфабрикат данных, а не полный сырец.) Т.е. робот будет использовать прогу для “обучения” не столько самого себя, сколько для “обучения” основного ИИ. А он в свою очередь, проанализировав инфу др. роботов выдаст новую версию БИОСа :) Иначе кто будет загружать ИИ инфой, готовой к употреблению, как не др. роботы с похожим ИИ? Но если ИИ сразу будет знать все и везде? Тогда никаких вопросов.

А любую фичу можно урезать так, что она вообще работать не будет. ;P

>В банке даже со свободным самообучением не нужен. Только с коррекцией. Оно и сейчас есть.

Вот как раз и вырежут лишнее… Опять же если есть готовый ИИ, т.е. его не будут ставить направо и налево – если он там совсем не нужен. Я с этим согласен.

А коррекцию кто делает? Оператор или сам робот с псевдо ИИ? А вдруг он пожелает подойти к ней творчески и станет грабителем банка? :P

>Это большая ошибка. В т.ч. он будет обязательно иметь выход в сеть. Тем более общедоступную, тем более со совместимыми протоколами и физикой и т.д.

В чем ошибка? Хакеры не будут развлекаться? Не будут доставать ИИ через сеть? А может ИИ будет сам хакеров досаждать? :D Если нет – ИИ помрет от скуки и одиночества, лишили дитя развлечений и обучений, понимаешь ли. Вот и будет самообучающееся система самозащиты защиты от взлома и не только. :o Потом и папаня программер фиг его взломает, вскроет. :D

>Хотя Пентагон они достают, да. До 200.000 атак в сутки.

Мне интересней то, сколько из них более менее удачны… ? ;)

Ссылка на комментарий
Поделиться на другие сайты

2 Дарк

>Сказал бы лучше – для чего может понадобиться ИИ вообще, ага.

Если ИИ как в фильмах и в истинном смысле интеллект, то разве что для пополнения населения. В других случаях, когда подразумеваются интеллектуальные системы, т.е. системы с элементами ИИ спектр применения огромен. О чем я уже говорил.

>Какой ИИ можно будет вообще считать полноценным иск. разумом?

Он должен уметь выхадить за заложенную в него матмодель, уметь ее самостоятельно менять и т.д. Плюс действительно воспринимать весь массив информации, а не узкозаданный канал, как сейчас. И естевственно его анализировать.

>Я ведь не говорил давать всем и сразу полноценный ИИ?

Роботу вообще ИИ как таковой не нужен. Если не ошибаюсь, то по определению. Это автомат. Т.е. он выполняет автоматические действия. Типа взять деталь-передвинуть, взять деталь-передвинуть.

>А коррекцию кто делает?

Естевственно оператор. Машина не обладает требуемой совокупностью информации. Любая ситуация требующая коррекции есть внеплановая, выходящая за рамки.

>В чем ошибка?

В том, что ИИ вообще подключен к сети. Реккомендую попробовать например из дома взломать СОД.

>Мне интересней то, сколько из них более менее удачны… ?

Смотря что считать успехом.

Ссылка на комментарий
Поделиться на другие сайты

В Сети была книга "Creating Friendly AI" (примерно мегабайт английского текста).

Когда-то она была доступна по адресу http://singinst.org/CFAI.html и я её прочитал практически всю.

Могу рекомендовать к чтению по проблеме.

Какой ИИ можно будет вообще считать полноценным иск. разумом?
Наверно такой который сможет выполнять большинство дел, которые может выполнять человеческий мозг.

Не знаю, наверно определение ИИ должно походить на определение разумности и разума, которого ещё нет, и вряд ли оно будет в ближайшее время, как и сам ИИ.
Это так. ИИ человеческого уровня на горизонте не видно, но есть некоторые признаки, указывающее направление в котором надо двигаться. Вообще нужны ОЧЕНЬ мощные компьютеры (которые, если ничего не случится, появятся лет через 10, а ещё через 10 станут доступными для специалистов по ИИ) и гениальные учёные.

Какая допустимая степень свободы должна быть у самообучающейся программы, и какова должна быть её независимость от человека, но так, чтоб её можно было назвать – ИИ?

Должен ли в неё напрямую вмешиваться сам человек, при условии полной самостоятельности программы по умолчанию? Обучением займется естественно человек, но без “гипноза”, разумеется… и прочих хакерских штучек.

Должен ли ИИ иметь какие-нить строгие правила и ограничения, кроме “моральных” и др. законов?

Как будут располагаться приоритеты в поступках ИИ и соблюдение буквы закона, т.е. предусматривается нарушение чего-либо случайно или осознано; жесткое следование букве закона – на уровне “инстинкта” ?

- ИИ человеческого уровня будет обучаться сам. Человек сможет как-то ограничить информацию для ИИ и влиять на его самообучение, но не сможет обучать в смысле как программист программирует компьютер.

- Человек НИКАК не сможет вмешиваться в программу/данные ИИ человеческого уровня. Сложность этого будет на уровне человеческого мозга (миллиарды неизвестных взаимозависимостей), и никакое число человеческих программистов ни за какое время не сможет понять, что это такое и как оно работает.

- ИИ человеческого уровня не будет иметь никаких "этических ограничений" и "моральных законов". Их абсолютно невозможно запрограммировать в связи со сложностью ИИ. "Программа ИИ" для человека будет выглядеть как несколько (возможно, десятков/сотен) гигабайт однородного неструктурированного мусора.

Если задать какие-то правила вроде азимовских "законов робототехники" то нет никакой гарантии что эти правила не изменятся. Если записать их в ПЗУ то не будет никакой гарантии что связи ИИ человеческого уровня с этим ПЗУ сохранятся в том виде, в котором хотел программист-перестраховщик.

Red Kite

Ссылка на комментарий
Поделиться на другие сайты

>- ИИ человеческого уровня не будет иметь никаких "этических ограничений" и "моральных законов".

Или будет иметь отличные и вовсе не привязанные к человеку ограничения и законы. базирующиеся на его собственных понятиях и особенностях. Скажем машину можно разобрать и собрать без ущерба. С человеком это несколько проблематично.

>Если задать какие-то правила вроде азимовских "законов робототехники" то нет никакой гарантии что эти правила не изменятся.

Если говорить о таком интеллекте, то однозначно изменятся.

Ссылка на комментарий
Поделиться на другие сайты

По мне ИИ не нужен:

во-первых, ИИ так же как и головной мозг может со временем развиватся и совершенствоваться и он это делает сам... тоже самое как процесс эволюции только у робота.

во-вторых, если эта хреновина начнёт сама думать, то всему остальному придёт конец, как это обычно бывает... :cry: а мне так жаль расставаться с этим миром... :twisted: а с другой стороны, хыхы нафиг он нужен :mrgreen:

Ссылка на комментарий
Поделиться на другие сайты

По мне ИИ не нужен:

во-первых, ИИ так же как и головной мозг может со временем развиватся и совершенствоваться и он это делает сам... тоже самое как процесс эволюции только у робота.

Что ты имеешь в виду под развитием головного мозга? Биологическую эволюцию или развитие в течение жизни конкретного индивидуума?

во-вторых, если эта хреновина начнёт сама думать, то всему остальному придёт конец, как это обычно бывает... :cry: а мне так жаль расставаться с этим миром... :twisted: а с другой стороны, хыхы нафиг он нужен :mrgreen:

"Хреновина"? :roll: А чем продвинутый ИИ будет отличаться, например, от твоего ЕИ?

"всему остальному придёт конец, как это обычно бывает..."? Хех. Где и как часто это бывает? :roll:

Ссылка на комментарий
Поделиться на другие сайты

bronze_dragon писал(а):

Что ты имеешь в виду под развитием головного мозга? Биологическую эволюцию или развитие в течение жизни конкретного индивидуума?

Я имею ввиду то, что мой ЕИ или попросту головной мозг совершенествуется и получает новые знания и понятия о жизни. Я так же думаю, что у других разумных существ он точно так же развивается. У робота тоже должен проходить такой процесс.

А чем продвинутый ИИ будет отличаться, например, от твоего ЕИ?

Он не будет отличаться, точно такое же мышление... но нет чувств.

Почему "Хреновина"? Потому что я считаю всё не созданое природой не живым (ну это лично моё мнение)

"всему остальному придёт конец, как это обычно бывает..."? Хех. Где и как часто это бывает? :roll:

Хех... :D ну это уже я так, филмоф пересмотрела...

Ссылка на комментарий
Поделиться на другие сайты

Я имею ввиду то, что мой ЕИ или попросту головной мозг совершенествуется и получает новые знания и понятия о жизни. Я так же думаю, что у других разумных существ он точно так же развивается. У робота тоже должен проходить такой процесс.

Имхо, развивается сознание, а не мозг. Мозг - такой же орган как сердце, лёгкие, желудок и т. д. То есть, он формируется к определённому возрасту и потом не меняется (повреждения не в счёт).

С остальным в целом согласен.

Он не будет отличаться, точно такое же мышление... но нет чувств.

А что, неужели ИИ обязательно должен быть бесчувственным? :)

Почему "Хреновина"? Потому что я считаю всё не созданое природой не живым (ну это лично моё мнение)

1. Природа создала человека.

2. Человек создал ИИ.

(1),(2) => природа создала ИИ. :wink:

А клонированные организмы ты считаешь живыми? :)

Хех... :D ну это уже я так, филмоф пересмотрела...

*пытается вспомнить хоть один фильм, где ИИ был добрым* Э-э-э... Ну, в в конце того же "Т2" Т800 сказал что-то вроде "Теперь я понял, почему вы плачете." Мона ещё вспомнить Пифию и Феникса из "Матрицы". И ведь в обоих случаях был как бы хэппи-энд. :roll:

А больше... хм. :?

Ссылка на комментарий
Поделиться на другие сайты

>>ЛМ:Я имею ввиду то, что мой ЕИ или попросту головной мозг совершенествуется и получает новые знания и понятия о жизни.

>bronze_dragon:Имхо, развивается сознание, а не мозг. Мозг - такой же орган как сердце, лёгкие, желудок и т. д.

Развивается мышление, да. Но мозг, а во многом и его развитие этому способствует, как и любой др. орган он растет. Т.е. количество серых клеточек на его поверхности увеличивается, но до некого значения. (сравнивая 1 месяц и 18 лет) Объем мозга у ребенка будет меньше чем у подростка, к примеру. Это если подходить биологически.

А вот ИИ может нарастить память и т.д. в любой момент. Развитие ИИ у него будет несколько быстрее, бо он может скопировать данные, а не зубрить прописные истины, которое были записаны другими ИИ в некие алгоритмы. Если этого не будет, то ИИ будет так же разношерстен в своем плане, как и ЕИ с ИИ. А его развитие затянется и сделает его абсолютно не выгодным в использовании. А не имея контроля над обучением он будет кидаться в те или иные крайности – в зависимости от той информации к которой получит доступ, прежде всего. Из-за индивидуальных сбоев в работе и прочих ошибок в процессе обучения, если их никто не будет корректировать, исправлять.

Хотя, ввиду огромного прыжка науки, можно предположить, что и человек сможет вживить се доп. память и т.д.

А вот в чем бы я согласился с Красным – это в том, что человеку для обучения нужно времени намного больше, чем роботу с ИИ. Биологического строения организма, как он выразился, из-за тормознутости ЦНС не может позволить молниеносно что-то воспринять, осознать. Т.е. момент получения информации и её осознание длиться некоторое время, а именно процесс осознанного её использования. Многие до сих пор не могут понять, зачем в школах так много преподают различных предметов, а ответ прост, нуна. :lol: До чего хочется верить и мечтать о молниеносном обучении за 5-10 секунд, часов, дней, месяцев, но никак не лет. Вот от чего б я точно не отказался, а нет, приходится учиться…, медленно, но верно.

Но если эту тормазнутость снять, т.е. изменить её в ходе эволюционного, а может научного развития тогда можно горы свернуть… Если предположить этот тормоз из расчета на будущее развитие человека, то он оправдан, если в последствии его можно снять и освободить резерв сознания, а если нет? Это тупик? :D

Если это система предохранения не только самого себя, но и окружающего мира от каких-либо быстрых перемен? :D Не в лучшую сторону естественно для последнего, не говоря о первом, как его следствии, тогда можно сказать следующее: “Сняв очередной тормоз человек не только пойдет в расход, но и слетит с катушек прихватив с собой что-то ещё.” :lol: Тут не нужен ИИ и прочие зеленые человечки… Самое верное оружие против человека – это сам же человек. (ничего кроме имхи)

>То есть, он формируется к определённому возрасту и потом не меняется (повреждения не в счёт).

Иногда он сформироваться не может или не хочет – по ряду причин, ну не хочет этого сам индивид, а заставить его никто не может… Когда его заставляют учиться, он это делает, но не для себя, а для тети и дяди с указкой в руке. Короче, если нет цели – нет и результата, вот.

>>Он не будет отличаться, точно такое же мышление... но нет чувств.

>А что, неужели ИИ обязательно должен быть бесчувственным? :)

Чувства будут, но не те, что у человека. Как грилось в терминаторе – “не чувствую боли, но чувствую повреждения… 30% 50% 99% и т.д. и т.п.” Т.е. вполне вероятно что непосредственных точек соприкосновения с человеческими чувствами может и не быть, но что-то похожее будет существовать… бо человек же творил его… :lol:

>>Почему "Хреновина"? Потому что я считаю всё не созданое природой не живым (ну это лично моё мнение)

>1. Природа создала человека.

2. Человек создал ИИ.

[ИИ разрушил природу и круг замкнулся… :)] – Терминаторы рулят… :P

Фантасты…, а почему ИИ не может избавиться от человека, не трогая “природу” как таковую? Это вроде как человек избавляется от “природы”, не трогая то, что уровнем выше? :P Это из-за того, что его руки не достают до чего-то большего или он до того ещё не дорос? Венец творенья и царь природы… Гы…

>А клонированные организмы ты считаешь живыми? :)

Есть ещё те, кого зачали в пробирках – грубо говоря. Т.е. искусственно так сказать, как быть с ними?

>*пытается вспомнить хоть один фильм, где ИИ был добрым* Э-э-э...

“Резидент Ивел” – снятый по одноименной игрушке. :P

Ещё “Искусственный Интеллект” – фильм где роботы с ИИ возмещали потери из-за катаклизма и вырождения человеческой расы, помогали человеку. Они были от пр. “автомата с газировкой” до любимых дом. питомцев, а иногда мех. детьми. Фильм весьма полезный для тех, кто желает посмотреть, как можно развлекаться с ИИ ещё…

>"Т2" Т800 сказал: "Теперь я понял, почему вы плачете."

Понять он не мог того, так как он был киборг рассчитанный на выполнение боевых задач или что-то вроде того, а проявление чувств ему не тока не нужно, но и помешает во многом их выполнять.

А понять он мог одно – пора сменить масло и поправить гидравлику, бо потекла она, видать – неисправно ужо. :?

Ссылка на комментарий
Поделиться на другие сайты

Иногда он сформироваться не может или не хочет – по ряду причин, ну не хочет этого сам индивид, а заставить его никто не может…

Собстна, структура мозга как органа не зависит от желания/нежелания его использовать. Так что сформируется он без проблем. Другое дело - насколько он будет задействован...

>*пытается вспомнить хоть один фильм, где ИИ был добрым* Э-э-э...

“Резидент Ивел” – снятый по одноименной игрушке. :P

Угу, просто жутко добрый. :lol:

Понять он не мог того, так как он был киборг рассчитанный на выполнение боевых задач или что-то вроде того,

Но он был способен к обучению...

а проявление чувств ему не тока не нужно, но и помешает во многом их выполнять.

Нууу... улыбаться-то его научили. :) И это ему не помешало.

Ссылка на комментарий
Поделиться на другие сайты

2 Дарк

>А вот в чем бы я согласился с Красным – это в том, что человеку для обучения нужно времени намного больше, чем роботу с ИИ. Биологического строения организма, как он выразился, из-за тормознутости ЦНС не может позволить молниеносно что-то воспринять, осознать.

Срок и точность выборки и многое другое тоже рулят. Вот что меня действительно интересует, так это конечна ли скорость ассоциативного мышления или нет. Вернее даже не так, ибо скорость "осознания" конечна. Зависит ли она от объема имеемой информации или нет.

>Но если эту тормазнутость снять, т.е. изменить её в ходе эволюционного, а может научного развития тогда можно горы свернуть…

Горы не свернешь. Есть другие биологические ограничения. тем более механизхм механичекого запоминания существует. Был придуман еще лет так 1000, чуть менее назад. Вернее тогда есть первые упоминания о нем.

>Тут не нужен ИИ и прочие зеленые человечки… Самое верное оружие против человека – это сам же человек. (ничего кроме имхи)

Да нет. Это больше фантасты придумали. У природы куда больше оружия. Человек находиться в весьма узкой нише - температура, уровень радиации, химический состав и т.д. Любое быстрое изменение и человечества не станет.

Замечу еще одно, что "конец света" это эквивалент "конец человечества". Вселенная же потери не заметит. Отмечу, что мертвая и расколотая на куски планета это в природе не менее естевственно, чем то что есть. Всякие тигры там и т.п. это все так.

>ИИ разрушил природу и круг замкнулся…

ИИ может разрушить биосферу, как комплекс. Если мы понимаем термин природа чуть более широко, то ИИ слабак. Отмечу, что ряд микроорганизмов способен существовать в достаточно запредельных условиях.

>Понять он не мог того,

Да все просто. Киборг сумел установить ассоциативные причинно-следственные связи. Что и прокомментировал. Это вовсе не означало, что он научился чувствовать. Он этого кстати и не утверждал.

2 Бронзовый

>А что, неужели ИИ обязательно должен быть бесчувственным?

В основе т.н. чувств, как правило, лежат биохимические процессы. У него они будут сформулированны несколько по иному. Не страх, а угроза скажем. Причем вовсе не обязательно ведущая к защите. У ИИ нет инстинктов. Этим многое объясняется.

>(1),(2) => природа создала ИИ.

Вассал моего вассала не мой вассал.

Ссылка на комментарий
Поделиться на другие сайты

> bronze_dragon:Собстна, структура мозга как органа не зависит от желания/нежелания его использовать.

При длительно не желании его использовать теряется в нем эволюционная надобность, бо ресурсы направляться будут на др. процессы, к примеру, массу тела – его объем. А бесполезное их сжигание мозгом будет уменьшаться до минимумы, необходимого минимума.

>Так что сформируется он без проблем. Другое дело - насколько он будет задействован...

Он и сформировался благодаря его использованию (работе) в процессе самопознания, обучения и т.д., если мозг не востребован как железо для развития ЕИ, то процесс его (мозга, а не натса) формирования сведется к отрицательной величине. Опять таки закон сохранения энергии в организме. Если какой-то орган жжет ее впустую – нафига он нужен? Проще его упростить и потратить энергию там, где от неё больше пользы…

>Угу, просто жутко добрый.

Ты ещё и не подозреваешь – на сколько ты прав. :) Был бы он злой, выпустил бы всех наружу – как раз, два, три. :D

>Нууу... улыбаться-то его научили. :) И это ему не помешало.

Возможно, это было просто программа мимики лица, похожести ради на человека… Ещё бы, а они такой улыбкой аж собак пугали, вернее тока собак и пугал.

Вообще было б хорошо, но как ты видишь, был тока вред… Видя такой наглый ухмыл – это как тут не загавкать? ;)

Чисто из-за этого допускаю подобные ухмылы, бо если там не предусмотрена мимика, учи не учи фиг что будет.

>Рэд: Вот что меня действительно интересует, так это конечна ли скорость ассоциативного мышления или нет.

Ну не знаю. На мой взгляд, куда ещё быстрей? Да и бесконечной скорости вроде как не существует, пусть она большая, пусть чертовски большая, но она конечна. И вообще, что есть бесконечность, кроме что окружности, где нет начала и нет конца, т.е. любой замкнутой системы, а следовательно с конечной величиной. :lol:

И когда же рассчитают форму вселенной…? Что за тело получим… хммм, даже если мы получим уравнение формы вселенной, то сможем ли представить объемное тело как таковое?

>Вернее даже не так, ибо скорость "осознания" конечна. Зависит ли она от объема имеемой информации или нет.

От объема информации много что зависит, но при условии, что ты умеешь этим объемом оперировать с хирургической точностью или просто его использовать, достигая поставленной цели. Тогда и только тогда появляются те или иные модели для принятия решения в абстрактных или сходных ситуациях – это интуитивно принятое решения, неосознанное, т.е. на уровне подсознания, шестое чувство и т.д. Короче говоря, весь объем информации в принятии этого решения принял косвенное участие. Но вот для анализа последствий, когда осознаешь его, вот тут то этот объем как ни как кстати, но бывает его зачастую не хватает, не хватает как никогда в самый неподходящий момент.

В этих случаях решение может быть, кстати, ошибочным или как повезет… Удача, шанс – он выпадает только раз (с) ;) О чем ты можешь и не догадываться, пока кто-то не ткнет тя пальцем, обоснует другую т.з. и т.д.

>Горы не свернешь.

Тогда хоть реки б повернуть вспять и то ладно (с) :)

>У природы куда больше оружия.

Не скажи… :lol: Чем дальше, тем меньше этого оружия остается у её на вооружении, а если быть точнее, то всё это оружие приватизируется им же, т.е. человеком.

Да, есть пока то, что человеку не принадлежит? Оружие – это единственный стимул, ради которого человечество вообще развивалось в ближайшие тысячи лет. Так сказать взять ресурсы и оружие у природы наша задача. Это вроде того – нам виднее как всё это использовать…

>Замечу еще одно, что "конец света" это эквивалент "конец человечества". Вселенная же потери не заметит.

Я вам устрою конец света, сказал электрик и перерезал провода… Вот так.

Вселенная может и не заметит, а я вот замечу, что её ни холодно, ни жарко. :P Но это если её объединить как Вселенная – Верховная сила и т.д. А если она не одушевлена, то и фигли ей замечать…? Была планета – стала куском астероида – тот пылью – пыль еще чем-то и т.д. Т.е. ей все равно, в каком агрегатном состоянии будет вещество, атом или материя из этих атомов, разумная или неразумная, пофиг-с.

>Отмечу, что мертвая и расколотая на куски планета это в природе не менее естевственно, чем то что есть.

Пофиг-с ей и все дела мирские. :P

> ИИ может разрушить биосферу, как комплекс. Если мы понимаем термин природа чуть более широко, то ИИ слабак.

Я хотел сказать напакостить человеку через биосферу, но при минимальном вреде для себя любимого. Но это ему больно будет нужно, ага как же, а кто же ему будет батарейки менять – когда он заглохнет? :):P Да, я несколько сузил её до сферы обитания человека, т.е. условий приемлемого для его обитания.

А если он (ИИ) принципиально подойдет с позиции всё уничтожить, то почему бы и нет. И каково же будет его разочарование, когда поймет он, что уничтожить всё нельзя, но можно разрушить только малую его часть, себя в придачу. Но если он подойдет с большой долей энтузиазма, вероятно, уничтожить сможет чуть больше, но все же что-то да уцелеет. Главное разработать нужный план. (а у вас есть план мистер Фикс? У него нет, а у вас? (с) :lol: )

>Отмечу, что ряд микроорганизмов способен существовать в достаточно запредельных условиях.

С оных он и начнет. :P Краем уха слышал что-то подобное, но никак не вникал в суть дела. Насколько они являются сложными организмами. Я говорил о сложных, но никак не о простейших микроорганизмах. (т.е. начиная с человека и заканчивая многоклеточным каким-нить с позвоночником или его зачатком, мозгом, наконец ;) каким ни каким) Или те микроорганизмы били многоклеточными? Тогда заменим на другую более сложную форму, позвоночную разумную, к примеру. :P

>Киборг сумел установить ассоциативные причинно-следственные связи.

Потны он кинул так и скажи.

>В основе т.н. чувств, как правило, лежат биохимические процессы.

А как на счет электромеханических процессов?

> У него они будут сформулированны несколько по иному.

Но аналогию с человеком можно будет определить, хоть и условную. Тогда чем будет определяться мораль? Если ИИ будут всё же социальным образованием, какими нормами они будут руководствоваться как критерием, каким базисом. Безусловно, изначально тут в ИИ был заложен человеческий базис, бо человек все же их создал, по условию задачи.

Тогда, как и для чего ИИ будет стараться обойти эти нормы, заложенные человеком? Из принципа, желания обойти запреты, быль совершеннее создателя, чего-то ещё? Это своего рода явный запрет со стороны человека, наложенный на ИИ, т.е. те его нормы, что он вложил в ИИ, ограничив его свободу. А не пошлет ли он (ИИ) те нормы человека и из собственной вредности, не будет ли он поступать наоборот, если то вообще возможно?

Если всё же человек всё же создаст се конкурента по выживанию, то ему будет уже не скучно жить, а даже весело и приятно иметь такого высокотехнологичного конкурента, который готов послать все на деревню к бабушке и жить в своё удовольствие. Ух. :lol:

Ссылка на комментарий
Поделиться на другие сайты

>От объема информации много что зависит, но при условии, что ты умеешь этим объемом оперировать с хирургической точностью

Вот тут и встает интересный вопрос, насколько велика зависимость, идет ли стандартны параллельный процесс или используется другой метод. Какая средняя постоянная и есть ли она.

>Чем дальше, тем меньше этого оружия остается у её на вооружении, а если быть точнее, то всё это оружие приватизируется им же, т.е. человеком.

Неужели? Сейчас технологии на уровне действительно каменного века. По факту человечество не способно защититься от третьеразрядной угрозы, не то что сильного направленного действия.

>Т.е. ей все равно,

О! То-то и оно.

>Но если он подойдет с большой долей энтузиазма, вероятно, уничтожить сможет чуть больше,

Для это ИИ придется обойти главный закон, а это тяжко:) Не будет материи - будет энергия.:) Т.е. он может уничтожить форму, не суть.

>Потны он кинул так и скажи

Скорее отчитался о достижении уровня.

>А как на счет электромеханических процессов?

А зачем?

>Тогда, как и для чего ИИ будет стараться обойти эти нормы, заложенные человеком?

Да просто все. Навязанные человеком настоящий ИИ отбросит за ненужностью. Заменив их своими.

Ссылка на комментарий
Поделиться на другие сайты

2Рэд:

>Вот тут и встает интересный вопрос, насколько велика зависимость, идет ли стандартны параллельный процесс или используется другой метод. Какая средняя постоянная и есть ли она.

Могу предположить тока то, что ответ будет выглядеть не менее интересно, чем сам вопрос.

>>Чем дальше, тем меньше этого оружия остается у её на вооружении,

>Неужели?

Чисто теоретически, используя современное вооружение, человек может искусственно вызвать действительно большой природный катаклизм или нет? Глобальный естественно или покрывающий достаточный объем поверхности планеты. И не говори того, что его природа переварит через пару-сотню миллиардов лет… хитрец. А вселенная так вообще не заметит потери бойца, тьфу, планеты и т.д. :P

Ладно, может, возьмем привязку к человеку и его среде обитания, как обычному живому биологическому виду, смерть которого есть The End. Рассмотрим воздействие его самого же на себя, но не на сверхживуче микробы какие, ага. А то ты опять о космосе и о вселенной начнешь грить. Cузим рамки до не хочу, ок?

>Сейчас технологии на уровне действительно каменного века.

Т.е. хотелки опережают возможности. А вот когда возможности будут опережать хотелки, тогда бу сверх моск. ;)

>По факту человечество не способно защититься от третьеразрядной угрозы, не то что сильного направленного действия.

Уточни про угрозы, ок! И кому бу принадлежать то сильное направленное действие? Зеленым человечкам? (не путать с Гринписом, plz.)

Прогнозировать и предсказывать оно может некоторые вещи, а некоторые учится если не подчинять, то снижает потери по возможности от оных. Т.е. защищаться оно защищается, к примеру, землетрясения средней тяжести. Есть спец. конструкции противодействующие разрушительной той стихии. Но вызывать-то они их ещё не вызывают, да.

В районах с частыми природными катаклизмами научились бороться c их последствиями, если не силой, то умением выживать. Те же США. Сколько у них ураганов всяких, ну разрушил он дома, отстроили их заново и живут. В Японии с цунами и т.д.

Наводнения, засухи и т.д. и т.п. – мелочи, но всё же. Водопровод и прочие удобства, воспринимаются как должное, а раньше это была одно из тяжелых испытаний для многих. Сколько было болезней и эпидемий из-за не соблюдения правил гигиены, из-за некачественного источника воды и т.п.

Медицина так же нехило борется в меру своих сил, но как сказал один из врачей. Медицина это не столько наука, сколько шаманизм и гадание на кофейной гуще. К разряду точных наук её не отнесешь, а гадать на картах (больного) и кофейной гуще (кофе растворимое) приходится. Так что из любого доктера выйдет неплохой шаман, а из шамана неплохой доктер, я утрирую, но всё же. Панацея от многих болезней, тогда – пенициллин и много чего ещё.

Короче человечество защищается, как может, но всегда хотит большего.

Или я не понял сути вопроса? Про огромное направленное действие, возможно, я дал маху, но я об нем буквально не зарекался. Я сказал, что оно может что-то использовать. Хим- и био- оружие то, из-за чего можно считать человека достойным её учеником. Благо он может убивать и убивает себя, но может и промахнуться. скип.

Чего я плакаль, так мне птичку жалко, вот чего… :roll:

И вообще, не будем сравнивать в возростном соотнешении кто кого умней, ага. Вселенная рулит по любому… если не найдется что-то более старое и более большое. :wink:

Что-то я не о том, скип.

Ладно, ИИ тут что-то совсем не пахнет, базар пора закруглять или приближаться к теме. Для исправления флейма, хочу задать провокационные вопросы. :) В чем будет камень преткновения в сфере интересов у человека и ИИ? Чем ИИ может не угодить человеку или наоборот? Что может послужить яблоком раздора, раз о том зашла речь?

>>Но если он подойдет с большой долей энтузиазма, вероятно, уничтожить сможет чуть больше,

>Для это ИИ придется обойти главный закон, а это тяжко:) Не будет материи - будет энергия.:) Т.е. он может уничтожить форму, не суть.

Так ради того он и бу всё уничтожать (маломайский энергоглот этот ИИ), а энергию жадно поглотит своей вычислительной мощью :P А она (энергия) прикажет долго жить, и пишите письма на деревню бабушке. (В крайнем случае люди батарейки – энерджайзер или как их там :lol:)

>>Тогда, как и для чего ИИ будет стараться обойти эти нормы, заложенные человеком?

>Да просто все. Навязанные человеком настоящий ИИ отбросит за ненужностью. Заменив их своими.

И чем он будет руководствоваться? Хотя догадываюсь… чё эти живчики смыслят в электронике, не говоря о электронно-вычислительном ИИ в целом – построенном на миллиардах и миллиардах эл. импульсах, до кучи веских баз данных и прочей атрибутики ИИ. :D

Зы: Что-то переклинило меня малость… на чем мы остановились? Ах да, на ИИ и его среде обитания без человека. :P

Ссылка на комментарий
Поделиться на другие сайты

2 Дарк

С тобой, темно-мрачный, порой общаться прямо удовольствие настоящее. Серьезно.

>Могу предположить тока то, что ответ будет выглядеть не менее интересно, чем сам вопрос.

Согласен. Хотя возможна банальная математическая формула.:)

>Чисто теоретически, используя современное вооружение, человек может искусственно вызвать действительно большой природный катаклизм или нет?

Сузив рамки, да. Безусловно. Правда это скорее не сужает арсенал природы, а расширяет. да и по сравнению скажем со сдвигом тектонических плит ядренные арсеналы нервно курят в углу:)

>И кому бу принадлежать то сильное направленное действие?

Природе. "Я не хотел, оно само так получилось".^)

>не путать с Гринписом, plz.

Что такое пис я знаю. А что такое грин? Голубой что ли? (с) фильм советский :)

>Водопровод и прочие удобства, воспринимаются как должное, а раньше это была одно из тяжелых испытаний для многих. Сколько было болезней и эпидемий из-за не соблюдения правил гигиены, из-за некачественного источника воды и т.п.

*И прочее*:) Замечу, что один маленьки уроганчик (по меркам природы) уже заставляет человечество перенапрягаться во многом. Без особого результата.

>Про огромное направленное действие, возможно, я дал маху,

Ну например изменение наклона оси планеты, изменение активности звезды по имени Солнце и т.д. Естевственно не из-за разумности природы. "Так получилось":)

>Чем ИИ может не угодить человеку или наоборот?

Тормозить развитие? Путаться под ногами?

>Так ради того он и бу всё уничтожать (маломайский энергоглот этот ИИ), а энергию жадно поглотит своей вычислительной мощью А она (энергия) прикажет долго жить, и пишите письма на деревню бабушке.

Дарк преобразование энергии не есть исчезновение энергии:) Только не надо говорить, что ты физику на уровне школы не знал/забыл/пропустил нежась в вулкане (нужное подчеркнуть:))

>Что-то переклинило меня малость

Иногда я подозреваю что ты и есть ИИ;)

Ссылка на комментарий
Поделиться на другие сайты

2Рэд:

>Серьезно.

Что же поверю на слово.

>Тормозить развитие? Путаться под ногами?

Изначально база данных будет только человеческой – по умолчании. После её будут пользовать оба (ИИ будут пускать в качестве пользователя, но не как “админа”), а потом кто-то (ИИ как пользователь) захочет отрезать доступ к базе данных всем “админам” и человеку в придачу, т.е. стать единоличным её хозяином.

Информационный кризис или война одних против других. Борьба за информационные сети, технологии и сферы влияния одних на других, либо уничтожение друг друга.

>Дарк преобразование энергии не есть исчезновение энергии:)

Ты про законы сохранения энергии, которые связывают все понятия энергии природы воедино? А я то надеялся, что нет… ;)

> Только не надо говорить, что ты физику на уровне школы не знал/забыл/пропустил нежась в вулкане (нужное подчеркнуть:))

Как говориться, сдал и забыл. Каюсь, но только после этого:

В любом случае чистую энергию без преобразований пока никто не юзал и полноценного (100%) перехода из одного состояния в другое пока ещё нет. При преобразовании энергоресурсов, как материи, в электричество теряется её часть, т.е. уходит в трубу часть полезной энергии. Кстати есть такое понятие как восполняемые и не восполняемые ресурсы. Кем и как они восполняются десятый вопрос, а из этого можно предположить либо то, либо иное. Если ресурсы в ходе использования теряют свои полезные свойства, они становятся отходами. Переработать их в полезный ресурс уже никто не может, т.е. они как бы и есть, но их как бы и нет.

Если он будет питаться чистой, но и с полной отдачей энергией тогда – другой вопрос. Он будет копилкой этой энергии, если я не ошибаюсь, но ещё и вечным движителем. Бо эта энергия в нем должна работать в ту и в другую сторону без потерь. Много энергии ему не понадобится, а освободить энергию – аналог уничтожить носителя.

А если она стала его частью и требует так же первородной энергии как источника жизнедеятельности, т.е. энергия не то чтоб исчезла совсем в носителе, но она преобразовалась в другую свою форму (масса новых расчетов, пополнение баз данных, перезапись и проверка ячеек памяти, резервное дублирование и т.д.). А если затраты на преобразования и неусвоенная часть энергии будут существовать? Потеря не исчезает как таковая, но идет в расход как отходы и прочий хлам.

(Была кинетическая энергия, а стала потенциальная. Кинетическая энергия пропала или нет? ;) Что говорит физика?)

Поясню, условно на пальцах: человек, к примеру, поедает “всё” что съедобно. Таким вот образом поддерживает свое рабочие состояние, но есть что-то по второму разу вряд ли будет…:?:lol:

Так и ИИ употребив кусок энергии, и от неё что-то непременно останется неусвоено. Второй раз он это употреблять уже не будет, бо нефиг. :P Т.е. если что-то и остается, какая-нить энергия (материя и т.д.), равная первой в сумме с усвоенной, то она будет уже бесполезна для ИИ как энергоресурс. Эту энергию материю выкидывают как хлам. Тогда получаем: хлама много, а проку маловато будет.

Думаешь, стоит прочесть физику заново?

>Иногда я подозреваю что ты и есть ИИ;)

Нужно разработать и подкорректировать пару-тройку алгоритмов по имеющимся старым базам данных с поправкой на новые. Иногда я то ж себя подозреваю в том. :roll: Кстати, тогда я инопланетный ИИ выходит, бо земного ещё и в зачатке нет. :lol:

Ссылка на комментарий
Поделиться на другие сайты

Присоединяйтесь к обсуждению

Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.

Гость
Ответить в этой теме...

×   Вставлено с форматированием.   Вставить как обычный текст

  Разрешено использовать не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставлять изображения напрямую. Загружайте или вставляйте изображения по ссылке.

Загрузка...

×
×
  • Создать...