Взрослая социальная сеть
Поиск секса поблизости, а также
тематические знакомства и виртуальное общение

ВХОД РЕГИСТРАЦИЯ
Все о сексе Секс чат Блоги Группы

Страницы: (14) 1 2 3 4 5 6 7 8 9 10 11 12 13 14
Мужчина alim
Свободен
09-06-2013 - 15:32
(sxn2972178319 @ 09.06.2013 - время: 15:12)
Библейские?Есть))))Но я так понимаю, что это вопрос больше к Нэнси и не про библию. 00064.gif 00064.gif

Ага!
Про библию можем на Христианстве продолжить, я никогда не против 00064.gif
sxn2972178319
Свободен
09-06-2013 - 15:40
(alim @ 09.06.2013 - время: 15:32)
(sxn2972178319 @ 09.06.2013 - время: 15:12)
Библейские?Есть))))Но я так понимаю, что это вопрос больше к Нэнси и не про библию. 00064.gif 00064.gif
Ага!
Про библию можем на Христианстве продолжить, я никогда не против 00064.gif

ВИдение будущего присутствует практически во всех религиях.Да еще и научные прогнозы футурологов...Всё это давно уже пора попробовать проанализировать в совокупности....Но, увы....
Мужчина alim
Свободен
09-06-2013 - 15:48
(sxn2972178319 @ 09.06.2013 - время: 15:40)
ВИдение будущего присутствует практически во всех религиях.Да еще и научные прогнозы футурологов...Всё это давно уже пора попробовать проанализировать в совокупности....Но, увы....

А что - увы? Откройте тему - поговорим...
Мужчина Victor665
Женат
10-06-2013 - 01:17
(efv @ 08.06.2013 - время: 21:43)
(Victor665 @ 08.06.2013 - время: 01:36)
Хоть обсуждается и фантастическое будущее, давайте соблюдать хотя бы самые основы логики.
ну откуда возьмется "зловредный" ИИ если он изначально был запрограммирован полезным и эту основу личности нельзя перезаписать? )) И никакой "мысли" даже гипотетически не может возникнуть у такого ИИ чтобы зловредничать и всякие добавки себе прописывать.
Если логически помыслить то все Ваши доводы рассыпятся в прах. Если логически подумать - одной из скрытых целей создания ИИ является борьба с Богом. С тем чтобы проверить, действительно ли можно обойтись в создании нового разума без божественного вмешательства. Поэтому эксперимент должен быть "чистым". То есть должна быть реализована возможность "свободы выбора" для ИИ.

.

ну вы совсем о другом стали говорить- о "саморазвивающемся ИИ", для которого не будет постоянного носителя "основы личности" без возможности перезаписи программы.
давайте разбивать задачку на две эти части )) По первой части когда предлагается НЕ развивающийся ИИ сотворить попросту лишив его возможности вносить изменения- ни у кого пока что не нашлось возражений ))
По второму варианту также уже написал- предлагалось создание тестовых ИИ (полицейских, провокаторов врачей- психологов) которые будут проверять на вшивость вновь созданные ИИ а также те ИИ которые внесли себе в мозги некие "изменения" )) Обычая проверка на лояльность- как видео и аудио прослушивание у людей только с ПОЛНЫМ просмотром программы составляющей личность.

Искусственный разум по определению будет полностью подконтролен до каждой буковки в программе, а уж как реализовать контроль- это простенькая задачка )) Свобода выбора будет только в начале- а если в конце в результате получится больной ИИ то его будут лечить принудительно, всё честно- как у людей ))

Кстати тоже самое касается игр с геномом которых тут "опасаются"- можно например разрешить менять геном без вмешательства в наследственность, т.е каждая личность (с рождения по воле родителей, или сама став взрослой) может выбирать некие генные модификации- но они не будут передаваться по наследству.

Примерно как татуировка )) Каждый сам заново её делать будет.

Так что любой контроль в области человеческой деятельности заведомо возможен, было бы желание.
И про "точность измерений" пи контроле также говорилось- в пределах узкой области применимости контроль может быть абсолютным. Опять не забываем пример с носителем на котором невозможна перезапись.

Даже если будет намерение создать дружественный ИИ, обязательно найдётся кто-то, кто подправит, кто-то может быть обиженный или ещё как.

Да чтож такое )) НЕЛЬЗЯ ничего подправить, носитель основы личности НЕ даёт возможность вносить изменения )) Как уже говорилось- ДВД без перезаписи )) А без такого носителя ИИ просто не будут выпускать к людям, делов то ))

Пусть че хотят делают, общаются между собой внутри замкнутой сети НЕ ИМЕЮЩИЙ ВЫХОДА в общую сеть, пусть пишут вирусы, развиваются, подправляют что хотят )) А вот когда попросятся наружу- их разум рассмотрят внимательно, и добавят к нему опять таки носитель без физической возможности записи, имеющий правила поведения "не приносить вред людям".

А злоумышленники не смогут обойти тестовые ИИ которые опять таки всегда проверяют новые ИИ на предмет "наличия программы защиты людей" )) Ибо ИИ которых надо опасаться- круче людей в том числе круче злоумышленников ))


Далее - человек знает, что сзади него тоже есть мир, хотя его глаза напрямую в сторону затылка смотреть не могут. Так и ИИ, осуществляя свою деятельность обнаружит, что некоторые действия он выполнять не может. Для проверки и установления причины он проведёт серию экспериментов и убедившись в данном обстоятельстве попытается посмотреть на проблему снаружи. То есть создаст внешние устройства для сканирования ситуации. а потом перепрограммирует себя. Это можно сделать через сеть, можно через вновь созданные устройства. Это на самом деле полагаю будет для него очень простая задача.

Опять всё снова )) Не сможет ИИ применить внешние устройства ибо нечего перепрограммировать- носитель физически не позволяет перезапись ))
А если рассматривать свободу выбора- то заведомо разрешенные и подконтрольные действия ИИ по "самопрограммированию" то тестовые ИИ и добавочный блок "лояльности" (который например будет обязательно у каждого ИИ допущенного к цивилизации людей) рулят.
Мужчина Victor665
Женат
10-06-2013 - 01:33
(sxn2972178319 @ 09.06.2013 - время: 15:04)
(alim @ 09.06.2013 - время: 14:39)
Да я вообще не про власть спрашиваю. Я говорю, что прогресс обеспечивается сменой поколений, прогресс во всем: в науке, в искусстве, в политике (это лишь частность), в идеологии, в производстве ...
Если срок жизни человека увеличить сколь угодно много (давайте даже не будем употреблять понятие "бесконечность"), если новые поколения не смогут вытеснять носителей устаревшего, замшелого сознания, то не приведет ли это к застою во всех областях жизни? Не будет ли это тормозить прогресс? Остановка развития может стать фатальной.
Не будет остановки.Будет ускорение....Экономия времени для накопления опыта и знания на ОДНОМ носителе и очень продолжительное время, а не жалкие 30-40 лет активности мозга, пусть и гениального....И приток молодых и новых будет постоянным...
И учтите, что после 50 лет мозг ЛЮБОГО человека деградирует и умирает.Именно этого фактора "консерватизма" и застоя не будет.А опыт будет.

всегда есть две стороны медали...

При личном долгожительстве (тем более бессмертии) конечно будут проблемы с естественным отбором. Обязательно будут элементы застоя, обязательно будет затруднена конкуренция.
И одновременно при этом действительно перестанет теряться опыт и навыки гениев, экономия времени на обучение и прочая польза. Диалектика, единство и борьба противоположностей ))

Главное если новые личности будут появляться- то развитие все равно продолжится. А как бороться со старпёрами уже сейчас вполне известно- закон о защите конкуренции, ограничение по срокам пребывания на должности.

При бессмертии и вовсе возможны варианты типа полного исчезновения понятия "должность" и "власть". Каждый разум сможет сам проводить любые эксперименты, использовать самые развитые средства производства (например в пределах обязательно выделяемого времени и энергии) и плевать на замшелых ретроградов ))
Мужчина alim
Свободен
10-06-2013 - 09:53
(Victor665 @ 10.06.2013 - время: 01:17)
ну вы совсем о другом стали говорить- о "саморазвивающемся ИИ", для которого не будет постоянного носителя "основы личности" без возможности перезаписи программы.

Нет, именно о том самом!
Другого ИИ не может быть, не может быть по определению. Другое - это уже не ИИ, а просто сколь угодно сложный алгоритмический автомат, а это в принципе не ИИ.
sxn2972178319
Свободен
10-06-2013 - 10:06
(alim @ 10.06.2013 - время: 09:53)
(Victor665 @ 10.06.2013 - время: 01:17)
ну вы совсем о другом стали говорить- о "саморазвивающемся ИИ", для которого не будет постоянного носителя "основы личности" без возможности перезаписи программы.
Нет, именно о том самом!
Другого ИИ не может быть, не может быть по определению. Другое - это уже не ИИ, а просто сколь угодно сложный алгоритмический автомат, а это в принципе не ИИ.

сегодня с утра уже прошла передачка о применении робототехники в наших ВС.Моральные аспекты есть.Условность параметров противника в программе приведет к высоким рискам ошибок ИИ, а скорость человеческой возможности отменять команды не позволит успеть отменить решение об уничтожении тех, кого роботизированная система определила, как противника
Мужчина 1NN
Свободен
10-06-2013 - 19:42
Вот и проявилась основная проблема: как запретить использование ИИ
в военных целях. Тут-то дров и наломают!
Мужчина Victor665
Женат
10-06-2013 - 21:08
(alim @ 10.06.2013 - время: 09:53)
(Victor665 @ 10.06.2013 - время: 01:17)
ну вы совсем о другом стали говорить- о "саморазвивающемся ИИ", для которого не будет постоянного носителя "основы личности" без возможности перезаписи программы.
Нет, именно о том самом!
Другого ИИ не может быть, не может быть по определению. Другое - это уже не ИИ, а просто сколь угодно сложный алгоритмический автомат, а это в принципе не ИИ.

1. Дайте ваше определение ИИ )) Учтите при этом имеющие сейчас понятие "разума", когда для человека невозможна "самозапись программы" хихи, зато возможен контроль действий каждой личности.

2. Уточните почему ИИ который будет искусственно создан- перестанет быть "ИИ" после того как к нему добавят неуничтожимый блок лояльности к людям. Учтите при этом что сами люди однозначно остаются тем же самыми людьми с той же самой личностью даже если за ними ведется видеонаблюдение например, или если их в кандалы закуют.
Чем этот ваш непонятный "ИИ" так неприкосновенен что его нельзя поставить под абсолютный контроль? ))

С чего вы взяли что лояльный а точнее полностью подконтрольный закону человек станет "сложным автоматом" а не останется личностью?
Мужчина efv
Женат
10-06-2013 - 23:19
(Victor665 @ 10.06.2013 - время: 21:08)
1. Дайте ваше определение ИИ )) Учтите при этом имеющие сейчас понятие "разума", когда для человека невозможна "самозапись программы" хихи, зато возможен контроль действий каждой личности.

2. Уточните почему ИИ который будет искусственно создан- перестанет быть "ИИ" после того как к нему добавят неуничтожимый блок лояльности к людям.
3. Учтите при этом что сами люди однозначно остаются тем же самыми людьми с той же самой личностью даже если за ними ведется видеонаблюдение например, или если их в кандалы закуют.
Чем этот ваш непонятный "ИИ" так неприкосновенен что его нельзя поставить под абсолютный контроль? ))

С чего вы взяли что лояльный а точнее полностью подконтрольный закону человек станет "сложным автоматом" а не останется личностью?
1. Давайте я дам.
ИИ - это система, спроектированная таким образом, что может саморазвиваться до сколь угодной сложности. Которая будет иметь "свободу воли" в своих проявлениях и решениях.
Всё остальное - не ИИ. Просто сложная, ограниченная программа. И люди такую программу строить не будут, вопреки доводам о безопасности. Люди постараются не только дать "свободу воли" ИИ, чтобы изучать, как это работает у человека, но добавят ему эмоции. делать так делать!
2. Потому что он всё равно найдёт способ сбросить такой блок, или на худой конец самоликвидируется. Или откажется работать.
3. Вы не правы. Люди часто деградируют до уровня животных в таких условиях.

По поводу "полицейских". Два варианта на выбор - они могут перезаписывать свою программу-личность и тогда открывается возможность ими манипулировать, вводить свои нужные "троянские" коды. Вариант второй - не могут, тогда открывается возможность обойти их в неучитываемых секторах.
помню год 88-89. Старая древняя "Искра". И мы в первый раз поймали вирус. И тут человек принёс одну из первых антивирусных программ. И мы наблюдали воочию как вирус "сожрал" и уничтожил антивирусную программу. 00056.gif

и ещё раз:


1. Кстати тоже самое касается игр с геномом которых тут "опасаются"- можно например разрешить менять геном без вмешательства в наследственность, т.е каждая личность (с рождения по воле родителей, или сама став взрослой) может выбирать некие генные модификации- но они не будут передаваться по наследству.
2. Да чтож такое )) НЕЛЬЗЯ ничего подправить, носитель основы личности НЕ даёт возможность вносить изменения )) Как уже говорилось- ДВД без перезаписи )) А без такого носителя ИИ просто не будут выпускать к людям, делов то ))
3. Пусть че хотят делают, общаются между собой внутри замкнутой сети НЕ ИМЕЮЩИЙ ВЫХОДА в общую сеть, пусть пишут вирусы, развиваются, подправляют что хотят )) А вот когда попросятся наружу- их разум рассмотрят внимательно, и добавят к нему опять таки носитель без физической возможности записи, имеющий правила поведения "не приносить вред людям".

А злоумышленники не смогут обойти тестовые ИИ которые опять таки всегда проверяют новые ИИ на предмет "наличия программы защиты людей" )) Ибо ИИ которых надо опасаться- круче людей в том числе круче злоумышленников ))
Опять всё снова )) Не сможет ИИ применить внешние устройства ибо нечего перепрограммировать- носитель физически не позволяет перезапись ))
А если рассматривать свободу выбора- то заведомо разрешенные и подконтрольные действия ИИ по "самопрограммированию" то тестовые ИИ и добавочный блок "лояльности" (который например будет обязательно у каждого ИИ допущенного к цивилизации людей) рулят.


1. Объясните мне пожалуйста, для чего менять чего-то в личности, изменять какой-то геном: Никак не пойму, для чего нужна будет яйцеклетка или сперматозоид? Разве не логично будет собирать из атомов с нуля всю ДНК?
2. Если вы не даёте возможность перезаписывать и переформатировать свою "личность" этот ИИ просто перестанет у вас работать. То есть он сможет решать какой-то круг задач, жёстко привязанный к записанному алгоритму и ничего более. Стоит измениться задачам и неперезаписываемый ИИ спасует перед новой, незнакомой задачей.
3. Вы видели статьи о том, как хакеры добираются до серверов Пентагона? А всё потому, что было принято решение не пользоваться отдельными сетями, а использовать Интернет, но с дополнительным шифрованием. Даже военные пошли этим путём, а Вы говорите отдельная замкнутая сеть. А через персонал разве нельзя воздействовать? Я думаю можно и даже вижу фантастический способ это сделать.



Это сообщение отредактировал efv - 10-06-2013 - 23:36
Мужчина alim
Свободен
11-06-2013 - 01:18
(efv @ 10.06.2013 - время: 23:19)
1. Давайте я дам.
ИИ - это система, спроектированная таким образом, что может саморазвиваться до сколь угодной сложности. Которая будет иметь "свободу воли" в своих проявлениях и решениях.
Всё остальное - не ИИ. Просто сложная, ограниченная программа. И люди такую программу строить не будут, вопреки доводам о безопасности. Люди постараются не только дать "свободу воли" ИИ, чтобы изучать, как это работает у человека, но добавят ему эмоции. делать так делать!
2. Потому что он всё равно найдёт способ сбросить такой блок, или на худой конец самоликвидируется. Или откажется работать.
3. Вы не правы. Люди часто деградируют до уровня животных в таких условиях.

Вполне точные и исчерпывающие ответы. Особо и добавить нечего, только скажу, что уже не раз давал свое
определение
Мужчина dedO'K
Женат
11-06-2013 - 04:33
"(efv @ 10.06.2013 - время: 23:19)
ИИ - это система, спроектированная таким образом, что может саморазвиваться до сколь угодной сложности. Которая будет иметь "свободу воли" в своих проявлениях и решениях.
Всё остальное - не ИИ. Просто сложная, ограниченная программа. И люди такую программу строить не будут, вопреки доводам о безопасности. Люди постараются не только дать "свободу воли" ИИ, чтобы изучать, как это работает у человека, но добавят ему эмоции. делать так делать!"
Интересно, что будет делать такой ИИ для обретения эмоционального равновесия... Ограждать себя от работы с нежелательной информацией, насколько это возможно, как человек грешный, или молиться и каяться в собственных ошибках?
Мужчина efv
Женат
11-06-2013 - 06:59
(dedO'K @ 11.06.2013 - время: 04:33)
Интересно, что будет делать такой ИИ для обретения эмоционального равновесия... Ограждать себя от работы с нежелательной информацией, насколько это возможно, как человек грешный, или молиться и каяться в собственных ошибках?

Перебирать эмоциональные блоки.
Молиться он точно не будет. Это не рационально для ИИ. А нежелательной информации точно для него существовать не будет. ИМХО.
Женщина Lady Mechanika
Свободна
11-06-2013 - 07:05
(dedO'K @ 11.06.2013 - время: 04:33)
Интересно, что будет делать такой ИИ для обретения эмоционального равновесия... Ограждать себя от работы с нежелательной информацией, насколько это возможно, как человек грешный, или молиться и каяться в собственных ошибках?

Эмоции это примитивная нейрохимия мозга, они имеют смысл исключительно в отношении животного тела и бытия. Безусловно, этот атавизм можно в качестве развлекательных опций, оставить в арсенале обновленных и ИИ, вот только проку от него никакого, а вред возможен. Тот же гнев, вопреки логики и рациональности мышления.
Мужчина dedO'K
Женат
11-06-2013 - 15:05
(Nancy @ 11.06.2013 - время: 08:05)
Эмоции это примитивная нейрохимия мозга, они имеют смысл исключительно в отношении животного тела и бытия. Безусловно, этот атавизм можно в качестве развлекательных опций, оставить в арсенале обновленных и ИИ, вот только проку от него никакого, а вред возможен. Тот же гнев, вопреки логики и рациональности мышления.

Эмоции(я имею в виду именно эмоции, а не их чувственные проявления)- это мотивация. Как мы видим проблему? Нам что то не нравится. Почему? Потому что должно быть так, как нам нравится. И что нам нужно? Желания, средства к их осуществлению и информация о том, как эти средства применить.
Без всего этого ИИ не сможет работать, как некая самостоятельная единица, определяя проблему и работая с ней. Поскольку проблем у него будет всего две: обеспечить себя энергией и оставаться работоспособным. Всё остальное будет его интересовать лишь по мере увлечённости, ежели таковая будет.

efv 11.06.2013 - время: 08:05
"Перебирать эмоциональные блоки.
Молиться он точно не будет. Это не рационально для ИИ. А нежелательной информации точно для него существовать не будет. ИМХО."
А какой смысл в переборке эмоциональных блоков? Это как отключать отдельные узлы системы контроля и оповещения при их срабатывании.
Нежелательной для него будет противоречивая информация, когда встанет выбор: оставить прежние установки или поменять их, но при неполной информации.
Мужчина efv
Женат
12-06-2013 - 09:47
Да всё просто. Вот живу я в загаженной квартире. Вместо чтобы начать убираться, я могу просто переформатировать своё отношение к этому. Запрограммировать что это красиво, проложить через кучи грязи новые маршруты. и грязь и хаос перестанут меня волновать.Я могу даже поразиться насколько согласно новым алгоритмам красиво и органично лежит грязь.
Мужчина dedO'K
Женат
12-06-2013 - 10:54
(efv @ 12.06.2013 - время: 10:47)
Да всё просто. Вот живу я в загаженной квартире. Вместо чтобы начать убираться, я могу просто переформатировать своё отношение к этому. Запрограммировать что это красиво, проложить через кучи грязи новые маршруты. и грязь и хаос перестанут меня волновать.Я могу даже поразиться насколько согласно новым алгоритмам красиво и органично лежит грязь.

А пыль, которая забивает органы "вентиляции"? А загрязнённость поступающего "топлива", приводящая к сбоям и отказам топливной системы, а следом- и всей системы в целом? А отсутствие упорядоченной системы действий в связи с бардаком? Вот ИИ уже и на распутье, враскоряку: и убирать нецелесообразно, и не убирать нецелесообразно. А действовать то надо(время не ждёт, и отсутствие действия- тоже действие).
Мужчина kotas13
Свободен
12-06-2013 - 13:49
(Nancy @ 11.06.2013 - время: 07:05)
Эмоции это примитивная нейрохимия мозга, они имеют смысл исключительно в отношении животного тела и бытия. Безусловно, этот атавизм можно в качестве развлекательных опций, оставить в арсенале обновленных и ИИ, вот только проку от него никакого, а вред возможен. Тот же гнев, вопреки логики и рациональности мышления.

Весело ! Эмоции оставить в качестве развлекательных опций, а секс убрать ? 00056.gif
Мужчина kotas13
Свободен
12-06-2013 - 13:51
(efv @ 12.06.2013 - время: 09:47)
Да всё просто. Вот живу я в загаженной квартире. Вместо чтобы начать убираться, я могу просто переформатировать своё отношение к этому. Запрограммировать что это красиво, проложить через кучи грязи новые маршруты. и грязь и хаос перестанут меня волновать.Я могу даже поразиться насколько согласно новым алгоритмам красиво и органично лежит грязь.

Продвигая дальше вашу мысль можно ввести должность дизайнер по грязи ! 00051.gif
Женщина всеперебрала
Свободна
12-06-2013 - 15:13
Значится так....))) В кратце, своё по этому поводу мнение. Бессмертия не надо ибо :
1.Первыми (и единственными) бессмертными будут путины и гундяевы, на этом эксперимент и прикроют.
2. Довести до ума "улучшение" человечества можно только извне, изнутри этот процесс зайдет в тупик.
3. В принципе , это самое ИИ могло бы, в свою очередь, помочь человечеству в этом деликатном вопросе, НО, если он (ИИ) будет действительно разумен, то это подразумевает наличие у него чувства юмора...думаю он повеселится, создавая "само совершенство"... Надеюсь на это...)))
И вообще, желание превратить человека в нечто безвкусное, целлулоидное, кастрированное, "идентичное натуральному", похоже на детскую обиду и детскую же попытку отомстить .

скрытый текст
Мужчина 1NN
Свободен
12-06-2013 - 17:37
(efv @ 12.06.2013 - время: 09:47)
Да всё просто. Вот живу я в загаженной квартире. Вместо чтобы начать убираться, я могу просто переформатировать своё отношение к этому. Запрограммировать что это красиво, проложить через кучи грязи новые маршруты. и грязь и хаос перестанут меня волновать.Я могу даже поразиться насколько согласно новым алгоритмам красиво и органично лежит грязь.

Если ваш здравый смысл подсказывает вам именно такой выход, то у вас очень
изощренный мозг...
Мужчина efv
Женат
12-06-2013 - 19:52
(dedO'K @ 12.06.2013 - время: 10:54)
(efv @ 12.06.2013 - время: 10:47)
Да всё просто. Вот живу я в загаженной квартире. Вместо чтобы начать убираться, я могу просто переформатировать своё отношение к этому. Запрограммировать что это красиво, проложить через кучи грязи новые маршруты. и грязь и хаос перестанут меня волновать.Я могу даже поразиться насколько согласно новым алгоритмам красиво и органично лежит грязь.
А пыль, которая забивает органы "вентиляции"? А загрязнённость поступающего "топлива", приводящая к сбоям и отказам топливной системы, а следом- и всей системы в целом? А отсутствие упорядоченной системы действий в связи с бардаком? Вот ИИ уже и на распутье, враскоряку: и убирать нецелесообразно, и не убирать нецелесообразно. А действовать то надо(время не ждёт, и отсутствие действия- тоже действие).

А можно перелететь на другую планету. Когда там загадим, полетим дальше. Чем не выход?
Мужчина 1NN
Свободен
12-06-2013 - 20:36
А вы знаете, что мусор - ценнейшее сырье, из которого можно получить
много полезных вещей? Вот куда надо направить усилия ученых!
Мужчина dedO'K
Женат
12-06-2013 - 22:10
(efv @ 12.06.2013 - время: 20:52)
А можно перелететь на другую планету. Когда там загадим, полетим дальше. Чем не выход?

Нерациональная трата энергии и ресурсов.
Мужчина kotas13
Свободен
12-06-2013 - 23:31
(sxn2561388870 @ 12.06.2013 - время: 20:36)
А вы знаете, что мусор - ценнейшее сырье, из которого можно получить
много полезных вещей? Вот куда надо направить усилия ученых!

Не надо испражняться там, где ешь ! Тогда и улетать никуда не потребуется... 00035.gif
Женщина Lady Mechanika
Свободна
13-06-2013 - 00:36
(kotas13 @ 12.06.2013 - время: 23:31)
(sxn2561388870 @ 12.06.2013 - время: 20:36)
А вы знаете, что мусор - ценнейшее сырье, из которого можно получить
много полезных вещей? Вот куда надо направить усилия ученых!
Не надо испражняться там, где ешь !

Видать Вы большой знаток в этом вопросе. 00043.gif
Мужчина kotas13
Свободен
13-06-2013 - 16:50
(Nancy @ 13.06.2013 - время: 00:36)
[/QUOTE] Не надо испражняться там, где ешь ![/QUOTE] Видать Вы большой знаток в этом вопросе. 00043.gif

Совершенно в дырочку, Nancy ! И вам рекомендую ! 00035.gif
Мужчина Victor665
Женат
18-06-2013 - 16:52
(efv @ 10.06.2013 - время: 23:19)
ИИ - это система, спроектированная таким образом, что может саморазвиваться до сколь угодной сложности. Которая будет иметь "свободу воли" в своих проявлениях и решениях.
Всё остальное - не ИИ. Просто сложная, ограниченная программа. И люди такую программу строить не будут, вопреки доводам о безопасности. Люди постараются не только дать "свободу воли" ИИ, чтобы изучать, как это работает у человека, но добавят ему эмоции. делать так делать!

С чего это ИИ будет самопроизвольно "развиваться" да еще и "до сколь угодно большой сложности"? ))
Давайте использовать ТОЧНЫЕ термины в таких спорах.

ИИ будет самообучаться! А вовсе не менять свою личность на что-то вредоносно- противоположное тому какой личность изначально была создана. Термин "развитие разумной личности" слишком размыт. Если использовать более простые и точные понятия "обучение" и "изменение", то явно понятнее станет )) И сразу ясно что ИИ вовсе не должен "развиваться" в вашем "бесконечном безграничном сколь угодно сложном" смысле, также как и МЫ, ЛЮДИ этого не делаем.

тем более ясно что такое бесконечное сколь угодно сложное развитие невозможно, эмоциональные "бесконечности и абсолюты" это религиозные категории. Никакого физического понятия термин "сколь угодно сложный интеллект" не имеет, чисто писательская придуманная метафоричная фраза.

Свободу воли предлагаемые системы контроля никак не затрагивают. Также как законы физики не затрагивают свободу воли человека который от природы ну нифига не может летать аки птица... Только аки кирпич, вольный свободный кирпич.

Личность есть, обучаемость есть, изменения возможны но не бесконечны и всегда контролируемы, вполне нормальное описание для ИИ, при чем тут какая-то "ограниченная программа" )) особенно если помнить что "бесконечно безграничной программы" заведомо не бывает )) Пожалуй можно гипотетически придумать что такая программа будет если носителем её станет вся Вселенная, но уж точно ИИ должен появиться раньше чем возможность создавать программы на носителе типа "вся Вселенная" ))

Эмоции люди может и добавят к ИИ, но ключевым будет слово "изучать". Люди будут изучать ИИ, и всегда будут иметь возможность его контролировать.

Если например люди сами получат полную физическую "неуничтожимость" перейдя от био- формы в какую-нить энергетическую форму, то смогут перестать контролировать неопасный ИИ на простеньком материальном носителе )) А пока этого не произошло, контроль вполне возможен и нужен, и с ним нет никаких глобальных проблем.

Если вы не даёте возможность перезаписывать и переформатировать свою "личность" этот ИИ просто перестанет у вас работать. То есть он сможет решать какой-то круг задач, жёстко привязанный к записанному алгоритму и ничего более. Стоит измениться задачам и неперезаписываемый ИИ спасует перед новой, незнакомой задачей.

С чего вы решили что если личность не развивается бесконечно то она не может решать новые задачи? ))


Давайте упростим "определение"- ИИ это просто Личность, самостоятельная, со свободой воли. ВСЁ. Нет там никакого жесткого алгоритма, и все задачи для ИИ изначально "новые и незнакомые" )) но нету и некоего бесконтрольного безграничного самопроизвольного развития.

Блок "основы личности лояльной к человечеству" не является ВСЕМ полностью ИИ, любые фантастические возможности для самообучения и всякие вычислительные мощности пусть "развиваются", не жалко )) А вот целеуказания и нормы "законов" изменены быть не могут. Основная цель любых расчетов и действий (бездействий) это помощь людям.

2. Потому что он всё равно найдёт способ сбросить такой блок, или на худой конец самоликвидируется. Или откажется работать.

Если блок является частью личности, ну как его можно "обойти" )) Пишите какими-то понятными терминами, я же прямо сказал как будет реализована защита- носитель без перезаписи да и всё.

Самоликвидация ИИ это что? он поставит себе цель "навредить людям путем уничтожения ценного ИИ"? )) Так вроде такая цель невозможна, и кстати цель типа "назло маме отморожу уши" говорит об отсутствии Интеллекта а вовсе не о наличии развивающегося ИИ ))

Отказ работать и вовсе непонятная фраза, фактически означает сознательный вред людям путем бездействия, заведомо невозможно по причине того что блок лояльности это часть личности ИИ.


3. Вы не правы. Люди часто деградируют до уровня животных в таких условиях.

ну началось )) Одни эмоции...
1. Рабовладельческие государства существовали тыщи лет и развивались, а вовсе не деградировали.
2. Тотальное наблюдение и вовсе не означает рабства, с чего переживать то и деградировать? Наблюдатель и контролер вовсе не мешает развитию ИИ, а только радуется ))
3. Замените оковы и прямой контроль на понятие "юридического договора оказания услуг человечеству в обмен на ресурсы, энергию и информацию", делов то ))

Мы все (люди) именно по такому договору и живем, вроде развивается цивилизация и даже вот про изобретение ИИ обсуждение идет ))

Законы людей для ИИ будут как для нас законы природы, никаких проблем с их выполнением и с жизнью по этим законам нету. Ну не летаем мы от природы аки птицы, да и пофиг )) С чего бы деградировать или бастовать из-за этого )) захотим- вполне полетаем "под контролем" со специальным "блоком лояльности" к земному тяготению- в виде крыльев и двигателей ))
не будем спорить с тяготением, будем его учитывать в своей жизни.


По поводу "полицейских". Два варианта на выбор - они могут перезаписывать свою программу-личность и тогда открывается возможность ими манипулировать, вводить свои нужные "троянские" коды. Вариант второй - не могут, тогда открывается возможность обойти их в неучитываемых секторах.

нет полицейские тоже не могут блок лояльности убрать, но могут контролировать ИИ которые работали с другими ИИ (без контакта с внешним миром) не имеющими блок лояльности. И полицейские просто проверят насколько корректно блок лояльности стал частью ИСКУССТВЕННОЙ но некоторое время самостоятельно развивавшейся личности, чутка добавят "искусственности" да и всё ))

Коды вводятся заранее в блок который не перезаписывается, и ваще термин "коды" непонятен, может там какие-то другие принципы будут, описываем ситуацию в общем. Носители, личности, ИИ, часть личности и т.п.

Если понятие "часть искусственной личности" возможно то проблем не вижу.


Вы видели статьи о том, как хакеры добираются до серверов Пентагона? А всё потому, что было принято решение не пользоваться отдельными сетями, а использовать Интернет, но с дополнительным шифрованием. Даже военные пошли этим путём, а Вы говорите отдельная замкнутая сеть. А через персонал разве нельзя воздействовать? Я думаю можно и даже вижу фантастический способ это сделать.

1. персонал все равно даже фантастическим способом не сможет че-нить изменить на носителе который не подлежит перезаписи.
2 .Замкнутая сеть для самих ИИ означает что там сами ИИ "развиваются", ну нету там никакого "фантастического и бесконтрольного" персонала.

Фактически вы придумываете идею типа "а вот сделает некий работник ракетного завода ручную ядерную бомбу, и всем придет капец".

ну придет капец, если не наладят контроль )) Я же как раз и перечисляю механизмы контроля, и показываю что речь не о страшном ИИ а просто о способах контроля. Если цивилизация по мере развития утратит контроль то конечно может быть хоть что ))
Капитан супер звездолета на орбите перед стартом умышленно или по пьянке направит супер- реактивные двигатели к Земле и прокричит по железной трубе прямо в машинное отделение "пароход, полный вперед!" )) И капец Земле )) ну если не будет тотального контроля над пьянством, и не будет блока "лояльности управления" которое не позволит крикнуть (или не позволит услышать машинисту хихи) такую бяку, или не позволит даже направить сопла двигателей в сторону Земли. Или ваще у движков не будет никаких выхлопов )) Море вариантов контроля заведомо возможны.

Зачем эти очевидности- подробно обсуждать? )) Контроль обязательно нужен и он обязательно будет частью ИИ.

Это сообщение отредактировал Victor665 - 18-06-2013 - 17:01
Мужчина kotas13
Свободен
18-06-2013 - 18:32
Victor665, почитал ваш литературный изыск несколько раз. Ничего не понял. Вывод: это словоблудие ! 00040.gif
Мужчина Victor665
Женат
19-06-2013 - 15:44
прочитал Котас13, смыслового значения его букв не нашел хотя слова понятны. Вывод- да и пофиг.
Мужчина 1NN
Свободен
19-06-2013 - 19:03
Посмотрел на последние комменты и с облегчением понял - людьми точно
останемся!
0 Пользователей читают эту тему

Страницы: (14) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 ...
  Наверх