Как ещё можно проверить разумность машины/программы?

Для любителей обсудить что круче Linux или Win32, Java или C#.

Модератор: Duncon

Аватара пользователя
Сионист
Сообщения: 1211
Зарегистрирован: 31 мар 2014, 06:18

Тест Тьюринга всем хорош, а аргумент китайской комнаты ничего не доказывает. Но всё таки это тест не разумности, а способности машинного разума имитировать человеческий, разумность же проверяется лишь косвенно, так как неразумный не сможет качественно имитировать ни какой разум. Да вот беда: имитировать можно лишь разум, уступающий твоему собственному, а обладать разумом, действительно идентичным разуму взрослого человека могла бы лишь та машина, которую некто лет 20 растил, учил и воспитывал, как ребёнка, а потом подростка своего вила. Да и то, детдомовских сирот придётся за подставных брать, либо надо растить испытуемого, как своего ребёнка. Сократить срок, взяв подставных детей? Так ведь четырёхлетние дети не способны показать, что их разум превосходит "разум" гориллы, а действительно быть статистически глупее взрослых они не могут просто потому, что тогда неоткуда взяться умным взрослым (ведь все взрослые были детьми и по условию дебилами похлеще любого олигофрена). Им просто не хватает знаний. И что мы получим, если воссоздадим обезьяний недоразум, проведём тест, а потом попытаемся вложить в машину дополнительные знания? Остаётся создать сверхразум и дать ему года два понаблюдать человечество, а тогда уже проводить тест Тьюринга против взрослых. И потом с ним же конкурировать? Или авторы надеются, что искусственный сверхразум вообще освободит людей от работы, предоставив одним свободу деградации, а другим научных исследований в своё удовольствие? И что делать, если задача имитации вообще не ставилась?
Писать можно на чём угодно, но зачем же так себя ограничивать? Пиши на c.
Аватара пользователя
somewhere
Сообщения: 1858
Зарегистрирован: 31 авг 2006, 17:14
Откуда: 71 RUS
Контактная информация:

Вопрос стоит иначе. Сможет ли разум более низкого уровня (человек) оценить разум более высокого уровня (суперкомпьютер, бог, иноплатнетные цивилизации) и признать его разумом более высокого уровня?
С точки зрения обезьян - поступки человека не объяснимы и не логичны.
- Почему голодный бомж не может просто так взять мороженое в магазине и съесть его? Чудные люди, какие они странные и не разумные.
Создать сверхразум невозможно хотя бы по той причине, что мы не знаем каким он должен быть. Возможно, идея "терминатора" не так глупа на самом деле и раса машин, обладающая более высоким разумом, проведя некоторые аналитические действия пришла к выводу, что человек должен быть выпилен. Никто же не знает что было бы потом. Возможно, они уничтожили бы людей - но потом привели бы в порядок природу, потому что теперь ей никто не угрожает. Люди могут представить, что они бы собрали все ядерные отходы со всей земли, запаковали бы их в один большой контейнер и направили бы на солнце и это разумно с многих точек зрения, в том числе с точки зрения людей. Только вот раса роботов, для которых ядерные отходы - это ресурс, не считает этот поступок разумным.
Кто знает, что значит быть разумным? Тест Тьюринга - это тест для человекоподобного разума. Представь, по ту сторону сидит человек и более высокий разум, не обремененный человеческими понятиями и традициями. Ты спрашиваешь каждого из них: "Стоит ли России атаковать США используя ядерное оружие?". Человек скажет, что конечно нет, это приведет к войне, погибнут люди, пострадает планета и все дела. Другой разум скажет: "Конечно, обязательно! И делать нужно это прямо сейчас!". Потому что для этого разума человек - враг не только сам себе, но и для своей планеты, для других планет, потому что агрессивен, потому что агрессивен и глуп одновременно. Для него более разумно, чтобы не было человеческой расы, любыми путями. В то же время собеседник скажет, что тот - человек, а этот - машина. А следовательно тест тьюринга не пройден, более высокий разум признан вообще не разумным.
Более простым языком - 5 летний ребенок не может адекватно судить более умного и опытного взрослого. Зато наоборот - очень даже работает. Инопланетяне, обладающие более высоким разумом, могут признать человека разумным или не разумным, потому что сами являются более разумными.
It's a long way to the top if you wanna rock'n'roll
Аватара пользователя
Сионист
Сообщения: 1211
Зарегистрирован: 31 мар 2014, 06:18

Вопрос стоит иначе. Сможет ли разум более низкого уровня (человек) оценить разум более высокого уровня (суперкомпьютер, бог, иноплатнетные цивилизации) и признать его разумом более высокого уровня?
С точки зрения обезьян - поступки человека не объяснимы и не логичны.
Когда человек ведёт себя по-человечески. А если по-обезьяньи? С точки зрения горилл поведение шимпанзе странно и наоборот, человек может научиться качественно имитировать поведение обоих видов. Психически здоровый человек может симулировать идиотизм на столько хорошо, что распознать обман смогут не все ему подобные (здоровые люди), а лишь специалисты по психам, но ни один идиот не сможет симулировать докторскую степень, да и шизофреники друг другу кажутся достаточно странными, если только конкретный глюк не совпадает. Аргумент же о том, что сам создатель слишком глуп разбивается о факт существования гениев в сочетании с тем, что подставными будут достаточно средние обыватели, гениальностью не страдающие, а то ведь Эйнштейна тоже легко отличил бы любой американец, толпы гениев нет, чтоб среди них мог затеряться великий учёный. Вопрос стоит именно так, как я написал: как проверить разумность машины/программы, если задача имитации именно человеческого разума при разработке даже не стояла?
Писать можно на чём угодно, но зачем же так себя ограничивать? Пиши на c.
Аватара пользователя
Сионист
Сообщения: 1211
Зарегистрирован: 31 мар 2014, 06:18

Другой разум скажет: "Конечно, обязательно! И делать нужно это прямо сейчас!". Потому что для этого разума человек - враг не только сам себе, но и для своей планеты, для других планет, потому что агрессивен, потому что агрессивен и глуп одновременно. Для него более разумно, чтобы не было человеческой расы, любыми путями.
Ты забываешь о задаче теста, ведь этот иной разум по условию должен притворяться человеческим, а для сверхразума не проблема сообразить, что для человека это будет акт агрессии против себе подобных и что состояние своей планеты человек оценивает с точки зрения своей формы жизни, для которой радиоактивное загрязнение - и есть худшее антропогенное зло. Таким образом, в условиях теста он ответит также, а вот недоразвитый инопланетянин спросит, что это за сказочное оружие, либо скажет: "Конечно: ведь их можно ограбить/съесть/поработить (нужное подчеркнуть, не нужное зачеркнуть, недостающее вписать), а потом ещё всех шлюх за юзать", так как он просто не знает, что те самые шлюхи станут опасны, а то и нет их в предполагаемом количестве.
Писать можно на чём угодно, но зачем же так себя ограничивать? Пиши на c.
Аватара пользователя
Сионист
Сообщения: 1211
Зарегистрирован: 31 мар 2014, 06:18

Для равного инопланетянина это тоже не проблема, но он не знает, так ли русские не навидят американцев, чтоб пойти на самоубийство ради их уничтожения и пожалеют ли они при этом американских диких животных. Сверхразум сможет об этом узнать за пару дней, наблюдая нас со стороны, равный не узнает ни когда и будет гадать, что именно нужно ответить, если только не воспитан землянами как землянин, так как любое наблюдение преломит через призму собственного отношения к тем же американцам и ощущение ценности собственной жизни, о чём сам же догадается до того, а для сверхразума мы проще ему подобных, нас можно изучить точно также, как мы изучаем зулусов, недоразвитый переспросит, поддержит агрессию, или "испугается", что американцы ограбят в этом случае русских и переюзают всех русских шлюх (в не существовании или ограниченном количестве которых его невозможно будет убедить). И только не участвующий в тесте ответит, что людей надо уничтожить, где бы они ни жили.
Писать можно на чём угодно, но зачем же так себя ограничивать? Пиши на c.
Аватара пользователя
somewhere
Сообщения: 1858
Зарегистрирован: 31 авг 2006, 17:14
Откуда: 71 RUS
Контактная информация:

Ответы высшего разума должны основываться на жизненном опыте, поэтому никакой разум, кроме человеческого не сможет симулировать человека. Этот тест вообще ничего не показывает, точнее, показывает то, что человек сможет распознать человека только лишь потому, что другие представители не испытывали такого же жизненного опыта. Слово "разум" в данном случае употреблять просто оскорбительно. Думаю, что Эйнштейн этот тест тоже бы запорол, ибо был "не от мира сего"...
It's a long way to the top if you wanna rock'n'roll
Аватара пользователя
Сионист
Сообщения: 1211
Зарегистрирован: 31 мар 2014, 06:18

Нет. Если заранее знать самого Эйнштейна, то судья заорёт: "Этого знаю, он точно человек". А прошлый опыт не отменяет Станиславского, причём, задача сыграть на сцене не стоит, надо лишь написать себе роль, представив себя на месте того, кем притворяешься, не надо демонстрировать эмоции, надо лишь сделать выбор, отталкиваясь от них. В РПГ играл? Тест на выбор индейского имени от имени индейца проходил? С позиций собственного опыта я не считаю охоту вообще достойным занятием, но только лишь потому, что мне она не необходима. Лев рискует жизнью на равне с антилопой: она может погибнуть в когтях, а он умереть с голоду, за длительное время не поймав ни одной антилопы. Это охота. А если я возьму ствол и пойлу убивать ту же антилопу, то моя жизнь не зависит от того, убью я её, или нет. Это подлое убийство. Или, предположим, я поеду убивать льва. Не имеет значения, убежит он, не догонит джип, или я его не найду, моя жизнь от этого не зависит, а вот лев рискует жизнью. Это подлое убийство. Но за индейца я отвечу, что предпочитаю охотится на опасных хищников. Это не означает, что я не удеру на джипе при первой попытке. Но я так напишу. Потому что с позиций индейца я понимаю, что охота необходима и что для дикаря равный риск охотника и жертвы понятней всего при одинаковом виде этого риска. При этом невозможность добыть пищу другим способом в обозначенных условиях проста для меня, но не для зулуса. Для меня не представляет сложностей и понять, почему сначала съедят старика и только потом собаку. А если другой дикарь ни когда не видел собаку, но ему объяснили, что это животное, то для него такой порядок будет казаться преступным: животное же, а почему бы на него не поохотиться? То, что это помощник в той же охоте, ему не понятно, а то старейшина своего племени. Именно равный ни когда не поймёт, если не рос в тех же условиях. Для цивилизованного человека могут выйти на первый план другие соображения. Например, гуманизм. Проблематичность выживания давно и однозначно связана с отношением людей друг к другу, а старик - это слабый, которого убивать грешно, к тому же сам станешь таким и будет справедливо, если с тобой дети, которые к тому времени уже вырастут, поступят также. Но и здесь есть свои нюансы. Например: "Собака - друг, она ни когда не предаст, она вообще свята и предательство представить себе не способна, поэтому при хозяйском нападении с пистолетом в затылок она ещё слабей, а человека всегда есть за что". Чем не вариант? Но если ты - немец, гадающий о тайнах русской души, то подобные варианты - препятствие, ты будешь упорно взвешивать за себя, а если ты - "бог из плоти и крови", изучивший землян, то можешь предсказать поведение дикаря, он для тебя прост, ты знаешь, для какого народа убийство друга - табу, а для какого всякий разум - самоценность и чьё отношение к окружающим больше диктуется сходством с ними, или длительностью сосуществования, а у кого отношением к нему окружающих. И кто как понимает ту самую справедливость. Но как ответит равный сверхразум же из другой галактики, для тебя и в этом случае загадка, так как даже при его изучении могло иметь место его притворство. Да и просто влияющих на решение факторов слишком много, а у дикаря их меньше, так как слишком большое их количество он не сможет не только взвесить, но и перечислить. Только в этом контексте дикарь уже не индеец, а я и я не осилю глубокой философии на тему как это убийство отразится на судьбе планеты через миллиарды лет и больше ли повлияет убийство собаки, или же старика и по каким причинам, даже малую часть которых я не смогу тупо запомнить. А другой сверхразум сможет, но оценить может по-своему.
Писать можно на чём угодно, но зачем же так себя ограничивать? Пиши на c.
Аватара пользователя
Сионист
Сообщения: 1211
Зарегистрирован: 31 мар 2014, 06:18

И вопрос не в том, гарантированно ли провалит тест Тьюринга писанная на Земле программа, а Эйнштейн - не актёр и цель притвориться серостью перед собой не ставил. Гениальный актёр обывателя сыграет так, что сосед персонажа отличит разве что в лицо, если грим косой. Но предположим, задача другая. Предположим, создан космический корабль с интеллектуальным автопилотом, зато без штурвала. И предположим корабль этот предполагается продать в качестве яхты необученному капитану и безопасность всего экипажа - забота корабля. Можно ли доверить ему жизнь экипажа? Или написана компьютерная игра, в ней есть раса персонажей-иноланетян, с которыми должно быть интересно поиграть. Так как это по условию инопланетяне, то способность к имитации не требуется. Как оценить правдоподбность технического уровня их планеты в сравнении с уровнем интеллекта населения? Если планета в целом средневековая, а персонажи на обезьяньем уровне, то это глюк. Как его выявить, или опровергнуть? Или робот-слуга, управляемый не джойстиком, или распальцовкой по клаве, а собственным мозгом. Как при испытаниях прототипа оценить, на сколько он будет понятлив и самостоятелен? На сколько подробными должны быть приказы хозяина? А промышленный робот. Как оценить, нуждается ли он в человеческом присмотре в меняющихся условиях? Как понять, можно ли ему доверить саморемонт и ремонт ему подобных? Имитировать живого рабочего он не обязан. Экспертная система. Как понять, можно ли доверять её суждениям? Как понять, способна ли она быть лишь электронным помощником живого эксперта, или же можно доверить ей роль последней инстанции в некотором круге вопросов?
Писать можно на чём угодно, но зачем же так себя ограничивать? Пиши на c.
Аватара пользователя
somewhere
Сообщения: 1858
Зарегистрирован: 31 авг 2006, 17:14
Откуда: 71 RUS
Контактная информация:

Короче вывод какой? Тест Тьюринга - это тест актерского мастерства. Для примера можно взять японца, обучить русским словам и посадить за клаву доказывать, что он человек. В силу большой культурной и лингвистической разницы построение слов и мышление оного будет отлично выделятся на фоне его русского конкурента, что заставит тестера подумать, что он - машина. Profit!
It's a long way to the top if you wanna rock'n'roll
Аватара пользователя
Сионист
Сообщения: 1211
Зарегистрирован: 31 мар 2014, 06:18

Ещё раз. Я не утверждаю реализуемость ни одного обозначенного сценария. В возможность создания искусственного сверхразума и в возможность создания ИИ, который пройдёт тест Тьюринга даже будучи воспитанным, как человек, я сам не верю (воспитать не получится, как ни старайся). Конкретно аргумент китайской комнаты ничего не доказывает, так как оценивается не процессор, а система в целом, только и всего. И нельзя при существенных различиях притвориться умственно равным, чтоб качественно притвориться, надо или быть изначально достаточно похожим (шпион представляет ту же цивилизацию, что и противник), или заметно превосходить. Умственным ли потенциалом, или же имитирующий разум будет более развит благодаря большим знаниям (не информации, а именно усвоенным и освоенным знаниям) - это уже вопрос отдельный, оба варианта обеспечат одну возможность. Я не утверждаю, что это сможет сделать машина. Я даже не утверждаю, что земляне позволят достаточно себя изучить инопланетянам (при условии, что завоевывать нас не будут). Но меня и не интересует данный аспект. Автопилоты уже существуют, некоторые способны не только летать по прямой. Каковы критерии экзамена на допуск их к самостоятельным полётам? И не только в космосе. Можно ли доверить автопилоту возить хозяина на самолёте и вести диалог голосом с диспетчерами? Вопрос технической надёжности не рассматриваем, боинг со "стеклянной кабиной" тоже врядли сядет при её отказе. Но можно ли ему доверить решения с учётом всего комплекса его характеристик от уровня интеллекта до лётных навыков и уровня знаний географии, собственных аэродинамических характеристик, правил воздушного движения и языков диспетчера и хозяина? Можно ли доверить достаточно большому беспилотнику самостоятельные полёты вблизи других самолётов, или это будет ожидание, когда именно американский беспилотник создаст опасную ситуацию для садящегося немецкого боинга? Можно ли доверить роботу "припарковать автомобиль" и не беспокоиться, что он оторвёт дверцу, просто не разобравшись с её замком? Промышленные роботы давно существуют. Предположим, создана новая их модель. Как оценить степень его автономности? В предсказуемых условиях он автономен. А в неожиданно меняющихся? Произошёл, предположим, выброс шлаковой эмульсии из конвертора. Можно роботу доверить реакцию на такое событие? Или пришёл заказчик со своим комплектом конструкторских документов, хочет, чтоб ему изготовили уникальное устройство. Можно ли его вообще отправить к роботу, или обсуждать подобные вопросы пока способен только живой начальник? Или ему подобный сломался. Можно ли доверить ему ремонт, или пусть ждёт живого ремонтника? Можно в простых случаях? А где провести планку сложности? Экспертные системы уже существуют. Можно ли новой экспертной системе доверить принятие решения, или пусть работает только в паре с живым экспертом? Каковы критерии для перечисленных случаев при условии, что ни одна из названных машин не обязана притворяться человеком? Кто то, вроде бы японцы, вроде бы уже объявили о создании робота-помощника для пожилых людей. А каковы критерии оценки того, на сколько можно доверить ему заботу о стариках? Например, как определить, можно ли ему доверить присмотр за здоровьем старика? Пульс смерить может и простой датчик, настроить тревожный уровень можно формально, разум здесь не нужен. Но вот телефон не отзывается. Можно ли быть уверенным, что робот всё равно сможет сообщить? Человек то может и к соседу постучаться, и на улице машину приняться голосовать, а при наличии своей машины погрузить туда пациента и отвести в больницу, не дожидаясь, когда приедет скорая. А робот? А сможет ли он вообще оценить транспортабельность пациента? Например, при переломе позвоночника? Вопрос стоит так: как оценить, сможет ли робот принять правильное решение в ситуации, которую автор забыл учесть на этапе разработки?
Писать можно на чём угодно, но зачем же так себя ограничивать? Пиши на c.
Ответить