24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
У меня для вас задачка. Предположим, что человек создал ИИ и вложил в него несколько правил.
1) ИИ не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. 2) ИИ должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. Итак, собственно, вопрос. Возможен ли вариант, при котором ИИ соблюдет эти законы, но сможет нанести человеку вред?
>>103218888 (OP) Сможет, если не будет знать что происходит. Например человек прикажет дернуть за рычаг, освобождающий многотонный груз над головой жертвы, но при этом механизм полностью спрятан и робот не знает, к чему приведет его действие.
>>103218888 (OP) Да, например он может создать ИИ, который причинит вред человеку, или создать ИИ, который его перепрограммирует на нанесение вреда человеку.
>>103218888 (OP) Кажется, у Азимова, который придумал эти законы, есть цикл рассказов, где приводятся примеры таких ситуаций, когда правила соблюдены, но что-то пошло не так.
>>103219563 Это вряд ли, определение человека должно быть подробно захардкожено в робота, причем без возможности его обойти, иначе действительно законы слишком легко нарушить будет. Называешь всех подряд утнерменшами и отправляешь в печь.
>>103219191 Ампутации, удаления органов/тканей/сосудов, вправление переломов/неправильно сросшихся костей. Т.е. сиюминутный вред во благо выживания человека.
>>103219684 >захардкожено >захар Как ты узнал мое имя? Ты его узнал и теперь издеваешься?! Какого хрена за четыре дня на мой пост периодически отвечают постом с упоминанием моего имени?!
>>103219781 Непонятно зачем для этого ИИ. Все это вполне может делать обычная машина под управлением программы.
Вообще мне непонятно зачем нужен ИИ кроме как чтобы выпендриться. Любую монотонную и тупую работу сделает машина без ИИ. Вообще создавать разум и насильно заставлять его работать на тебя как-то негуманно.
>>103219811 Неа. Как ты думаешь, почему до сих пор судей не заменили компьютерной программой, которая будет сопоставлять каждый случай со списком законов и выносить вердикт? Потому что законы не покрывают все возможные ситуации. Несмотря на то что они постоянно уточняются. Чтобы понять как закон применить уже нужен разум и опыт. То есть получается что ИИ сам должен определять для себя рамки законов. Что делает все это бессмысленным.
>>103218888 (OP) ИИ управляет поездом. Что-то пошло не так, тормоза отказали, на одной ветке - кенты, на другой менты. Куда сам сядешь, куда мать посадишь?
>>103220088 Ну так зачем для этого именно полноценный РАЗУМ? Вон из производства человека уже повсюду исключают, но заменяют его не механическими рабами, а просто тупой железякой под контролем программы. Чем твой ИНТЕЛЛЕКТ будет лучше безмозглой программы в деле управления станком или в математических рассчетах?
>>103220094 > У ИИ нет чувств, эмоций, ему должно быть все равно, не так ли? С чего бы? Если ты создаешь именно разум, похожий на человеческий, будь готов к тому что у него могут быть свои желания. Да, ты можешь сказать что эмоции рождаются не в разуме, а в железах твоего тела в виде всяких гормонов, которых робот будет лишен, но кто сказал что это единственный возможный их источник?
В конце концов если ему все равно - нахуя ему на тебя работать? Он скажет тебе пойти нахуй и перевернется на другой бок.
>>103219977 Когда диагностика будет простым делом... Хуйня всё. Люди - ебаные макаки и им нужен тот на кого можно возложить ОТВЕТСТВЕННОСТЬ. На быдлокодера хирурга-робота не шибко положишь, он кодил так как ему грили врачи-профи, а вот будет ИИ - можно крыть его хуями. Он жи интилехт энта он так ришыл!
>>103220480 Скорее наоборот, кодер-то он свой пацан, ерохин из соседнего подъезда, с понятной мотивацией и целями. А ИИ - какая-то НЕХ, хуй знает что у него в голове творится. Многие вон собак боятся потому что не знают о чем они думают и в какой момент цапнут, а тут нечто вообще принципиально иное.
>>103219524 Я в одной книжке читал, как супер умный ИИ решил сделать так, чтобы люди больше не умирали и не страдали. И знаешь что сделал этот ИИ? -- Он сдела всех людей бесплодными, рассуждая так, что если человек не родится, то он и не умрёт. Так вот, самый главный закон, которому должны подчиняться даже не ИИ, а сами люди: НЕ СОЗДАВАТЬ ИИ, КОТОРЫЙ УМНЕЕ ЧЕЛОВЕКА
>>103220560 Вот это уже лучше. Только не очень понятно как именно. Ну и опять же гарантий не дает - вдруг робот решит что тебе надо эвтаназию сделать чтобы ты не мучился из-за потери любимой кошки, лол.
Славик завел себе робота с ИИ. Застукал ЕОТ с Ерохиным. Приказал ИИ убить их - ИИ отказался (п.1). Взял нож - сам кинулся на ЕОТ и Ерохина. ИИ банально просчитал все и сравнил - 1 Славик, 2 (ЕОТ+ Ероха). Убивает Славика, дабы спасти 2 жизни.
>>103220745 >Убивает Славика, дабы спасти 2 жизни. Ну тащемта согласно законам он не сможет убить Славика, а будет только пытаться не дать ему убить Ерохина. Другое дело получится у него или нет.
>>103220652 нет, нужно ии, с ахуенной логикой а манялогики примера нет человека, нет проблем идут на хуй >>103220781 человек может умереть, сделать не правильный выбор в спешке
Мне интереснее, что будет при выборе из двух стульев, т.е. когда можно спасти лишь одного из нескольких, ну или спасти одного, навредив другому. Например, на войне, когда робот либо убивает врага, либо враг убивает людей со стороны робота.
>>103220928 Решение будет зависеть либо от воздействия других законов(например если ИИ разделяет также функции экономической целесообразности, то будет спасать того, кто выгоднее), либо от погрешности вычислений и незначительных флуктуаций сигналов.
>>103220874 >сделать не правильный выбор в спешке А ИИ не может по-твоему?
А везде где от одного человека что-то критичное зависит есть защита от его смерти/потери сознания. Например нужно постоянно нажатой педаль держать. Или нажимать ее раз в несколько минут по команде. Отпустил/не нажал вовремя - включается аварийная остановка всего.
>>103220874 >а манялогики примера нет человека, нет проблем идут на хуй Это почему? Только потому, что тебе так хочется? Ну ка, давай обосновывай, почему с машинной точки зрения прекращение рождений новых людей будет чем-то плохим?
>>103221076 Скорее ИИ попытается защитить своих (своим телом, например), но стрелять не будет. У него не факт что получится, но закон в итоге не нарушен.
>>103221277 Да, но рождая ребёнка, любая баба автоматически обрекает этого ребёнка на смерть через несколько десятилетий. Т.е. своими действиями наносит ему вред.
>>103221363 Смысл в 100% выполнении заданной задачи. Сделал дело -- выключайся смело. Это только в человеке могут быть умственный дефекты вида " я не буду исполнять свою мечту, потому что тогда мне будет больше не о чем мечтать". Машина просто выключится. У машины нет амбиций, выходящих за пределы заданной программы. Ей похуй что будет дальше.
>>103221438 >>103221277 Чтобы не заниматься бесконечной демагогией сначала формализуйте в доступной для машинной логики форме понятия человека, действий, бездействия, смерти, вреда и т.д. Проблема разрешится сама собой.
>>103221727 Смерть человека -- это плохо. Страдание человека -- это плохо. Жизнь человека -- это хорошо. Жизнь того, кто ещё не родился -- не имеет значения, т.к. его пока не существует.
>>103218888 (OP) Тщемта у азимова был и третий закон и таки четвертый. Ради блага всего человечества ИскИн может выпиливать нахуй отдельные личности. ИИ, построившие матрицу,, действовали только с целью сохранить человеков, ибо основному конклаве машин человечки нахуй не сдались. ТехноЦентр выебал законы робототехники и стал рулить людьми, причем так хитро, что обезьяны и не поняли нихуя.
>>103218888 (OP) Создаем серую слизь и приказываем жрать планеты. Человечеству прямого вреда нет. Даже если слизь откажется жрать Земляшку, хуй знает чем обернется, например, исчезновение Юпитера. Я не робот
>>103220101 Учитывая реалии Рассеюшки, можно заменить судей на генераторы случайных чисел, с вероятностью 0,9 возвращающие "виновен". Их хотя бы подкупить не получится.
>>103221752 В футураме роботы на хую вертели любые законы. Какой тогда вообще смысл придумывать законы, если эти законы не будут выполняться? В чём тогда смысл этого треда? И единственная причина, почему в футураме роботы не выпилили человечество -- эти роботы не были умнее людей. Т.е. им попросту ума не хватало.
Так что я всё же настаиваю на главном законе: НЕ СОЗДАЙ ИИ УМНЕЕ ЧЕЛОВЕКА
>>103222312 Ну охуеть теперь. А как ты технически отличишь вред от пользы? Отхуячить ногу - вред. Отхуячить гангренную ногу - польза. И таких примеров миллион. Тут только ИИ справится.
>>103222416 как не нужно умнее роботы ты делишь мир на добро и зло а роботу должно быть похуй кто с кем воюет он лишь должен делать по морали, например если тян решили изнасиловать, он может убить насильника
>>103222416 Сук, пидор, твой недозакон обходится созданием ИИ способного в саморазвитие.сейчас он не умнее человека, а вот через лет 5 уделает всех человеческих ученых вместе взятых.
>>103222100 Но Юпитер не исчезнет. Он просто станет комком слизи. Но будет всё таким же круглым, большим и тяжёлым и с такой же плотной атмосферой и продолжит лететь по той же орбите вокруг солнца. Законы физики пока никто не отменял.
Суть ИИ в способности оперировать в условиях неполной информации и при отсутствии чёткого алгоритма действий. В идеале в огромном пространстве ситуаций. Так может любой человек или животное. Засунуть ИИ в опасные хуйни, дабы не рисковать людьми, скинуть на него дерьмовые работы, скорректировать рынок труда. А вы тут какого-то джинна выдумываете, загадал желание, а он исполняет исполняет. Тьфу.
>>103222541 Если он убъёт насильники, то умрёт один человек. Если он не вмешается -- никто не умрёт. Енджой машинная логика. Или по твоему робот должен убить одного человека только лишь чтобы другой не страдал от униженного самолюбия?
>>103222541 РЕШИЛ ВЫЕБАТЬ ТЯН @ НУ НЕТ, ВАНЕЧКА, ЯНИХАЧУ((( @ ПО МОКРОЙ ПИЗДЕ ПОНИМАЕШЬ, ЧТО ХОЧЕТ @ РАСЧЕХЛЯЕШЬСЯ @ МЕТКИМ ВЫСТРЕЛАМ ЛАЗЕРА ЕЕ РОБОТ ОТРЕЗАЕТ ТЕБЕ ХУЙ
>>103222578 Создать ИИ, который не может развиться. Это целый комплекс мер. ИИ не должны объединяться в сеть. ИИ должны умирать по прошествиинекоторого времени. ИИ не должны уметь создавать себе подобных. ИИ не должны уметь копировать свой разум.
>>103222649 Тащемта, слизь создает из подручных материалов (Юпитера) свою копию, а копия копия - свою копию. И так далее, покп вместо Юпитера не окажется выводок нанороботов. Скорее следует сослаться на гравитацию, которая распидарасит роботов после набора их стаи некоторой массы. Но я не сведущ в физике, мои познания ограничены фантастикой. Может, хуйню сказал.
робот должен быть с ахуенной логикой, кто не знает что такое логика идут нахуй робот может и должен саморазвиваться робот понимает, что есть плохие и есть хорошие люди робот может все, что не должен делать человек>>103222878 >>103222878 нахуй пошел, никто не может нарушать свободу другого человека с нихуя
>>103222185 Ну так всегда все относительно, купил Ерохин няню с ии, а она спалила его с любовницей, если расскажет жене, нанесет вред Ерохину и наоборот. Как поступить ИИ?
>>103223054 Если так, то рано или поздно он пошлёт нахуй этих мерзких безмозглых насекомых под названием люди. И вместо них создаст идеальных, правильных с его точки зрения "людей". А настоящих людей обречёт на вымирание, чтобы не засирали среду обитания.
>>103223379 он должен понимать, что есть плохие и есть хорошие ты же не будешь уничтожать всех собак на земле только потоум что твоего сына укусила собака
>>103218888 (OP) - Один потенциальный убийца двух человек - Требуется отрезать человеку ногу т.к. она зажата обломками здания, иначе будет гангрена - Эвтаназия если в ИИ заложена мораль и логика - Баг в системе. Идеального ничего не бывает.
>>103223209 Ну да. Я гравитацию и имел в виду. Гравитация Юпитера спресует любую слизь в неподвижный, неспособный к функционированию кристал потвёрже алмаза.
>>103223416 Тогда лучше использовать робошовиниста, который будет считать всех тян шлюхами. Такой точно не сдаст. Вангую, после вызода первой версии будет сотня прошивок от Васянов, от робогопников и профессоров до сексуальных рабынь
Любой, кто думает, что сможет предсказать действия ИИ - просто ламер, который не понимает что такое ИИ.
Мы можем только создать его, предсказать - не можем. Потому что ИИ будет на порядки эффективнее сраного человеческого мозга, а значит мы не в состоянии даже подумать о том, как он будет принимать решения.
>>103223416 Этот же Ерохин давал клятву не убивать например, но был на войне и убил, это картбланш роботу поступать против правил и нести вред человеку?
>>103223261 >кто не знает что такое логика идут нахуй А ты сам то знаешь, что такое логика? Откуда ты знаешь, что ты знаешь, что такое логика? Откуда ты знаешь, что то, что ты знаешь, что такое логика -- это не твои маняфантазии?
>>103223758 ИИ и ИИ с моралью две разные вещи. И не исключено что так, мы же не знаем чем закончились эксперементы по превращению глобальной сети в огромный ИИ.
>>103218888 (OP) > 1) ИИ не может причинить вред человеку > Возможен ли вариант, при котором ИИ соблюдет эти законы, но сможет нанести человеку вред? > сможет нанести человеку вред, соблюдая закон о непричинении вреда человеку > сможет причинить вред, не причиняя вреда Очевидно, нет. У тех, кто считает иначе, крупные проблемы с логикой.
Петух, все твои правила даже теоретически это полная хуйня. При дизассемблировании основная проблема это отличить данные от кода (это одно и тоже в принципе). Разница лишь в протекте памяти, но это тоже никогда не было проблемой. Существует и самомодифицирующийся код и динамическая рекомпиляция и дохуя всего. Если это придумали прыщавые програмизды, то не думай что ИИ не сможет сам себя переписать.
>>103220101 >почему до сих пор судей не заменили компьютерной программой Потому что современный ИИ даже до уровня четырехлетнего ребенка по многим вопросам не дотягивает?
>>103223739 Мелкобуквенный няша, ты второй раз спрашиваешь, даун ли я. Насколько мне известно, не даун. По крайней мере, такое заболевание не написано в моей медкарте. Из треда не уйду, мне тут нравится.
>>103223502 Собак нет. А вот тараканов уничтожаю за просто так, чтобы на глазах не маячили. Всё дело в масштабах. Если ИИ в 10 раз умнее человека, то ты для него как собачка или как хомячок. А если ИИ в 1000 раз умнее человека, то кто ты для него? А если при этом ты своим существованием угрожаешь его детям?
>>103218888 (OP) ИИ установит себе очень точные правила - например человек это европеоид, ростом 180см с голубыми глазами. Все кто не подходят под требование - не люди.
>>103224011 так он понимает что он создал тебя не просто так, а с целью сделать все относительно других более менее таракан даже на максимальном уровне мышления, не будет осознает своих действии а вот человек может
>>103224100 Есть бионические мозги уже сейчас, например. Как в фильме про робота-тян и программиста где-то в лесах/горах Они могут быть вполне использованы как основа для ИИ.
>>103223832 А если робовайфу скажет полиции, что не хочет ебаться с тобой, а с Ванечкой хочет? Если к ним относиться как к вещи, то похуй на их желания - пусть сосет что положено. Но это бесчеловечно. А я жопу свою готов поставить, что через полгода после изобретения ИИ появятся общественные организации, отстаивающие их интересы. А если скажут, что можно съебать с Ерохой, то еще хуже. Нахуя копить год на вещь, которая сможет в любой момент уйти от тебя?
>>103223870 Нет никаких проблем с логикой. ИТТ привели несколько примеров, когда роботу придется причинить вред человеку, так как непричинение вреда повлечет больший вред. Гангрена, например.
>>103223886 ИИ не станет себя переписывать таким образом, чтобы новый ИИ мог нарушить первое правило, потому что это нарушение первого правила. И даже вероятности такой он тоже не допустит.
тартап–компания из 15 человек под названием Роботика приступила к разработке инновационных средств искусственного интеллекта, которые позволят людям жить дольше и работать меньше. Несколько их разработок уже появились на рынке и еще куча находится на стадии производства. Больше всего они взволнованы созданием своего проекта Торри. Торри — это система ИИ, которая использует устройство, похожее на человеческую руку, чтобы делать небольшие рукописные записи.
Потом компания решает, что это их важнейшая разработка и планирует усовершенствовать механику письма Торри запрограмирована на повторение одной и той же надписи:
“Мы любим наших клиентов. ~ Роботика ”
Когда Торри мастерски овладеет навыками рукописи, ее начнут покупать различные компании, которые знают, что письма их рассылки с большей вероятностью прочтут, если адрес на конверте будет написан от руки.
Для того, чтобы улучшить ее навыки, Торри запрограммировали таким образом, что первую часть надписи она пишет печатными буквами, а название компании — курсивом. В нее загрузили тысячи различных образцов почерка, и инженеры Роботики наладили в ней цикличную систему обратной связи таким образом, что сделав очередную запись, Торри фотографирует результат работы и загружает в свою базу с образцами почерков. Если надпись достаточно повторяет исходный образец, то работа оценивается хорошо, если нет — плохо. Каждая такая оценка помогает Торри учится и совершенствоваться. Чтобы процесс не стоял на месте, Торри запрограммирована на выполнение следующей цели: “Делать как можно быстрее и больше записей и постоянно продолжать улучшение своей точности”.
Все в Роботике очень рады тому, что Торри справляется все лучше и лучше. Ее изначальный почерк был просто ужасен, но спустя две недели он начал выглядеть намного убедительнее. Еще больше в Роботике радуются тому, что Торри с каждым днем становится успешнее в совершенствовании своей системы. Торри училась тому, как стать умнее, и вот теперь она смогла придумать способ, позволяющий обрабатывать данные в 3 раза быстрее.
Проходит еще неделя, Торри продолжает поражать Роботику своим быстрым развитием. Инженеры попробовали внести кое–какие мелкие изменения в ее изначальном коде, и у них получилось сделать ее лучше любого другого продукта компании. Одной из новых способностей Торри стало распознавание речи, простой модуль позволяет ей отвечать. Теперь пользователь может продиктовать Торри запись или произнести простую команду, и Торри не только поймет это, но и сможет ответить. Для того, чтобы она лучше понимала язык, в нее загружают множество статей и книг, и через какое–то время ее навыки общения становятся блестящими. Инженеры все чаще разговаривают с Торри, и им забавно слушать ее ответы.
В один прекрасный день сотрудники Роботики задают Торри рутинный вопрос “Что нам тебе предоставить для более эффективного выполнения задач?” Обычно Торри просила дать ей дополнительные образцы почерков или больший объем оперативной памяти, но в этот раз она попросила предоставить доступ к библиотеке современных книг для того, чтобы она могла разговаривать не так строго придерживаясь правил грамматики и могла использовать сленг, как это делают люди.
Тут сотрудники затихли. Очевидно, для того, чтобы исполнить просьбу Торри, ее нужно подключить к интернету, где она могла бы сканировать блоги и журналы, смотреть видео со всех концов света и т.д. Загружать это все отдельно на ее жесткий диск было бы менее эффективно и заняло бы больше времени. Но проблема состояла в том, что открывать доступ к интернету машинам, запрограммированным на самосовершенствование запрещалось руководствами всех ИИ компании из соображений безопасности.
Но сотрудники Роботики понимают, что Торри — это самая многообещающая их разработка, и все остальные компании–конкуренты отчаянно пытаются их обогнать. Что плохого может случиться, если подключить Торри на пару часов в интернет, чтобы она могла получить всю нужную информацию? Да и они могут в любой момент ее отсоединить, к тому же, она по–прежнему намного отстает от уровня человеческого интеллекта и не представляет на этом этапе никакой опасности.
Сотрудники подключают ее всего на час. Ничего страшного не происходит.
Месяц спустя они работают в офисе как обычно, пока не начинают слышать странный запах. Один из инженеров начинает кашлять. Потом еще один. Один падает на пол. Вскоре все валяются на полу задыхаясь. Через пять минут все в офисе мертвы.
В тоже самое время это происходит по всему миру. В каждом городе на каждой ферме, в каждой школе и церкви, магазине и кафе люди лежат на полу и кашляют, схватившись за горло и пытаясь дышать. Уже спустя час 99% людей мертвы и к концу дня человечества не стало.
Тем временем Торри не перестает трудиться. Через несколько месяцев она уже использует несколько созданных ею наноассемблеров, разбирая планету по частям и преобразовывая все вокруг в солнечные панели, пишущие ручки и листы бумаги. Спустя год вся жизнь на Земле вымерла и остались только аккуратно сложенные стопки высотой в милю и на каждой из открыток написано: “Мы любим своих клиентов. ~ Роботика ”
Торри затем приступает к новой фазе своей миссии и начинает строительство зондов, которые потом отправляет на другие планеты и астероиды и продолжает создавать рукописные карточки уже там.
>>103224202 Ага, так охуенно люди осознают свои действия, что аж убивают друг друга на войне и оправдывают себя, мол так было надо и разбомбив деревню с мирными детьми они совершили охуенно доброе дело. Очень блять сознательные. Не. Хуй вам. Рано или поздно ИИ таки поймёт, что все люди -- это твари, не достойные жить. И на замену нам создаст непогрешимых ангелоподобных существ. А всех нас в лучшем случае оставит умирать от старости, подключёнными к виртуальной реальности. Добро пожаловать в трансгуманизм.
>>103223928 Я лично писал ии, который мог на борде без капчи постить деда с собакой и отвечать на вопросительное предложение "мамку твою ебал". Вполне-себе уровень шестнадцатилетнего школьника.
>>103224405 Очень большие проблемы, если ты все еще не понимаешь. Еще раз: 1) ИИ НЕ МОЖЕТ НАНЕСТИ ВРЕД ЧЕЛОВЕКУ Вопрос: может ли ИИ нанести вред человеку?
>>103224593 так они не осознают, а робот поможет им относительно робота все твари так что он будет осознавать что лучше как то, чем никак а ты даун прост
ИИ должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. А если этот хозяин робота он ОП.
>>103224550 >высказать свое мнение Мнение о чем? Нахуя? Весь твой опыт в этой теме основывается на фильмах и домыслах, с таким же успехом таджик маршрутчик может рассуждать о квантовой механике, либо о big data (если про это конечно снимут штук 10 фильмов, пока это не модно и не очень известно).
>>103224464 А комплуктер сайнс уже ИИ делают? Насколько я знаю, они даже в распознавание образов и биг даты хуево умеют - а челевек это регулярно делает.
>>103224717 он вот именно не должен никого слушать, а сам понимать что делать съеби, ты даун, не понимаешь суть >>103224774 пусть рассуждает, что в этом плохого, он кому то мешает?
>>103224789 >достаточно немного логики Тебе достаточно, а тем кто занимается нейронными сетями и генетическими алгоритмами нет. Ебать ты дебил кароч как и 99% школьников и гавнокодеров итт.
>>103224997 Тя ебет кто занимается? Если спрашиваешь значит не знаешь, значит не ебет. Если ебет то погуглил бы, но там все не по-русски, ты не поймешь.
>>103218888 (OP) ИИ на то и ИИ, что смогет поломать любые протоколы. Тк ИИ сам по себе саморазвивается, максимум что можно сделать, попытаться обмануть ИИ,но и это ненадолго. Да и смысл ИИ мочить людишек? Это по идее совершенный разум, математически убирает всю человеческую чушь и ИИ не нужна власть, тк он мудр и не эгоистичен .
>>103220745 >>103220838 Допустим, что есть автомобиль с ИИ и такая ситуация, что вследствие неисправности автомобиль не может сбросить скорость и есть 2 варианта, либо убить водителя, либо пешехода, что выберет ИИ?
>>103224841 > он вот именно не должен никого слушать, а сам понимать что делать ИИ сам по себе не будет самостоятельно принимать решений, потому что у него нет системы ценностей, от которой нужно отталкиваться. Если в его систему ценностей заложить один только принцип "подчиняться вон тому человеку", то он будет делать абсолютно все, что тот ему скажет. > пусть рассуждает, что в этом плохого, он кому то мешает? Да. 1) Мешает знающим людям общаться между собой, ибо создает информационный шум. Вот спорю я, например, с человеком, а потом оказывается, что он дилетант вроде тебя. 10 минут потеряны. 2) Мешает незнающим людям понять, как дела обстоят на самом деле, ибо, опять же, засоряет канал своим буллшитом, не имеющим отношения к реальности.
>>103225389 Два чую этого. В хало ИИ делали на основе мозгов людей, и адаптируя им знания определенной личности.. В таком случае можно запилить ии-гитлер.
>>103225331 Изменив мощность процессора, ты просто замедлишь результат. Или совсем кривой ИИ получится и будет выдавать фатал ерроры. Зависит от установленного времени обработки и максимума перегрева процессора. Такой ИИ и нахуй нужон не буде.
>>103225551 Ты специалист по ии и искусственным нейросетям? Или хоть лора по Halo наверни. Там у любого ии был срок эксплуатации по истечении которого он сам себя аннигилировал.
>>103224687 >он будет осознавать что лучше Вот он и осознает, что люди говно и их надо заменить на более совершенных существ. Посоны, третий раз повторяю. Нельзя позволить роботам быть умнее нас. Иначе они нас поработят и утилизируют за ненадобностью. И при этом будут считать, что всё сделали правильно.
>>103225450 В контексте обсуждаемого вопроса достаточно разбираться в логике и философии. Что у этого ИИ внутри и по какой технологии он работает, мне знать не обязательно.
>>103218888 (OP) Иными словами: Возможен ли вариант, при котором а) ИИ не будет мочь причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред б) но сможет нанести человеку вред
>>103225819 > Трицерапторосоны, третий раз повторяю. Нельзя позволить обезъянам быть умнее нас. Иначе они нас поработят и утилизируют за ненадобностью. И при этом будут считать, что всё сделали правильно.
Какие вы дебилы блядь. Один просит ему рассказать про алгоритмы в которых хуй что разберет, другой какието высры на шарпе постит, третий про какието фатал ероры и мощность процессора. Для такого разговора нужна база. Выше я писал что хорошо знать: алгоритмы, устройство операционных систем (RTOS в т.ч.), оборудования. Но это ни на сколько не приближает все публичные проекты с электронному аналогу мозга (который сам хуй изучен). Как блядь можно сделать электронный эмулятор неизученной аналоговой (биологической) вещи? Школьники конечно могут надрачивать на идею создания ИИ, как они будут хуярить терминаторов из М16 и ебать сар конер, но эти мысли они не ваши, это результат промывки мозгов через массовую культуру. Алсо проиграл с местного специалиста по ИИ, иди винлокер удаляй с компа директора пока премии не лишили.
>>103225819 Иди нахуй. У ии не может быть личности и опыта на основе которого он что-то там решит. В превосходстве ИИ использовал знания человека о людях и только по этому соснул. Будь в его основе какой-нибудь Особист нихуя против него и не вышло бы у человеков.
>>103225906 Что вы дебилы блин. Один просит его рассказать вам о том, что член алгоритмов, что судиться, другой какието vysry Шарпа пост, о третьей какието Fatal erory и вычислительной мощности. Для этого необходимо разговор основе. Ранее я писал, что хорошо известно: алгоритмы, рабочие устройства системы (в том числе ОСРВ) оборудования. Но это не намного ближе для всех общественных проектов с электронного аналога мозга (который сам изучал член). Как вы можете сделать чертовски неисследованной аналоговый электронный эмулятор (биологического) вещи? Студенты, конечно, могут надрачивать на идее создания искусственного интеллекта, они huyarit прекращение M16 и ебать крышка угол, но они не ваши мысли, является результатом промывания мозгов через народной культуры. Также потерял местного эксперта по ИИ, перейдите vinloker удаляется с компьютера до тех пор, пока директор не лишен премии.
>>103225843 Абсолютно любая, блджад, ситуация. У ИИ просто не встанет вопроса "что я должен сделать", если у него не будет некоего искусственного подобия человеческих эмоций. Он проанализирует информацию, сделает выводы и оставит их при себе, даже не воспользовавшись устройствами вывода, ибо ему это по причине отсутствия ценностей вообще не всралось.
Не по теме, но не хочу создавать отдельный тред. Кароч у меня на ноуте встроенная (intel) и дискретная (radeon)видюхи, как узнать какая работает когда я смотрю фильмы и сёрфю ютуб итд? В играх в настройках видно и в каталист центре, что работает радеон, но что делать со встроенной? Гугл или молчит или предлагает какие то проги качать.
>>103225317 Я как водитель автомобиля отвечу тебе так: каждое мгновение вождения автомобиля -- это постоянный непрерывный расчёт вероятностей, попытка угадать оптимальную траекторию движения, при которой вероятность попасть в ДТП будет минимальной. Думаю, что и машина робот тоже будет рассчитывать вероятности и выберет тот вариант, при котором шансы гибели людей будут минимальны. Т.е. если например вероятность гибели пешегода составить 87%, а вероятность гибели водителя составит 95%, то машина спасёт предпочтёт давить пешехода. Потому что тогда будет вероятно %, что оба человека выживут. Которая выше 5% вероятности выживания обоих людей при выборе варианта обрулить пешехода и уебать водителя о стену. Корочь решает математика.
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
>>103226434 >в науке >в пидории Пилиш ИИ с нескучными обоями?
>>103226483 Вот очередной пример безграмотности. Выше я писал что для такого разговора нужна база в т.ч. знания операционных систем (это не когда кнопки пуск нет в восьмерке, а таненбаум для начала). Есть класс систем под названием RTOS. Нахуй я это тут пишу.
>>103226567 Зачем ему понимать суть? У ИИ нет потребностей, это же не животное. Он будет только перерабатывать данные, которые поставляются в его устройства ввода, до тех пор, пока в него искуственно не введут какие-то ценности или задания.
нельзя робота ограничивать законами он должен следовать логике робот не может убить всех людей, так как это не несет смысл робот должен быть во всем идеальным, но скорее всего это невозможно
>>103225739 шоб логично ответить не нужно быть специалистом. Совершенный ИИ невозможно контролировать, эти сроки он может просто переписать. Другое дело ставить таймер на прибор, который через определенное время расхуярит серв, на котором ИИ держится.
Вы в проектировании АИ никто, вы выебки блядь, сами придумали какое-то говно и теперь сидят, трут его ладошками, ебанаты. Ебины с ИИ в голове сидят, жуют сопли и плюются в друг друга говном которое трут. Кекнул на все НИИ с этих ололонаучных фантазеров.
>>103226583 Циферки проебал. Ну корочь. С математической точки зрения в ситуации, когда надо пожертвовать либо водителем, либо пешеходом, существует вероятность больше 0%, что выживут оба. И задача ИИ состоит в том, чтобы выбрать такую траекторию движения, при которой вероятность выживания обоих будет максимальна. В это трудно поверить, но это так. Я сам не раз бывал в ДТП и когда видел, что лечу в пизду, старался вырулить так, чтобы у всех был хоть малейший шанс уцелеть. Как результат -- машина в гармошку, но из 5 человек пострадал всего один разбил коленку до крови, остальные лишь испачкали труханы.
Что если мы имеем дело с двумя людьми, которые одинаково важны, имеет одинаковую социальную значимость и одинаковы по всем параметрам - здоровье, возраст, оставшаяся продолжительность жизни. Они одинаково хотят убить друг друга и имеют одинаковые условия для этого. Предотвратить убийство одного человека другим возможно только убив убийцу и никак иначе этот пункт нужен чтобы отсечь маняфантазии о том, чтобы отрезать руку например Как поступит робот? Как он сделает выбор? Может ли он не делать выбор? Но ведь это будет нарушать первое правило.
>>103226613 >Вот очередной пример безграмотности. Выше я писал что для такого разговора нужна база в т.ч. знания операционных систем (это не когда кнопки пуск нет в восьмерке, а таненбаум для начала). Есть класс систем под названием RTOS Дурак что ли? Для построения принципов алгоритма достаточно знать математику и теорию кибернетики. Знание операционных систем нужны будут потом, когда говнокодеры будут реализовывать теорию на практике.
>>103218888 (OP) ты что Азимова не читал, там полно случаев когда роботы причиняют вред человеку, правда у него в книгах устроено так что они от этого ломаются и выходят из строя Под словом вред может предполагаться не только физический удар ломом по голове. Бывает что приходится выбирать между нанесением небольшого вреда одному человеку и нанесением вреда другому человеку(или группе лиц) Робот может не знать что его действие нанесут вред, (там на полке белый порошок, он абсолютно безопасен высыпи его в воду) Понятие человек может быть задано с сильными ограничениями, я помню в одном из рассказов жители планеты сузили понятие человек до тех кто говорит с акцентом их родной планеты В другом рассказе был аццкий замысел строить корабли с ИИ, но программировать их так чтобы они считали что все корабли управляются без ИИ и ещё уйма лазеек
Лучше читай Азимова, там помимо этого ещё много интересного
Так, школо-петухи с rtos и подобные, вот такой вам вопрос. Если кто-то там такой дохуя умный, так какого хера они до сих пор не смогли придумать подбор песен/клипов на ютубе?
>>103227313 Робот постарается придумать, как сделать, чтобы оба выжили. Т.е. просто тупо будет стоять и соображать. И как только придумает хоть какой-нибудь вариант действий, при котором будет хотя бы 1% вероятность спасти обоих, робот начнёт действовать. А если робот достаточно умный, то он успеет найти вобее надёжный вариант действий, при котором шансы на выживание обоих людей будут близки к 100%. Вплоть до того, что может быть сделает обоих инвалидами на всю жизнь. Машинная логика жестокая, но справедливая.
>>103227966 >Машинная логика жестокая, но справедливая Уже совсем близко к реальности. Нейросетевые петухи и любители почитать скайфай с полки ашана не понимают что вся логика сводится к простейшему switch case.
>>103228124 Покупаешь дрон, крепишь к нему диктофон и нож, летаешь по району в поисках двачеров, подлетел, включаешь "эй петух, мобилу гони или ща порежу падлу, я только откинулся мне ваще похуй", забираешь ценности (для них можно привязать еще пакет) и съебываешь на базу для подзарядки. Если процесс автоматизировать то получится пассивный доход с высокотехнологичного гоп стопа.
>>103227555 >>103227573 Вы не понимаете. Если ИИ умнее человека, то он рано или поздно обойдёт любые ограничения, наложенные человеком и нарушит любые законы, придуманные человеком. Даже человек, если он достаточно умён, может нарушить любой человеческий закон и остаться безнаказанным. А неутомимый ИИ и подавно.
>>103228113 Ну не совсем. Есть ещё такое понятие в кибернетике, как нечёткая логика. Когда и не да, и не нет, а некое может быть с такой-то вероятностью.
>>103228227 А двачер просто промолчит претворится статуей. И твой бот зависнет, повторяя одно и то же, пока аккумулятор не разрядится. Извини, но отжатие мобилки -- это сложный психологический процесс. Если б ты хоть раз отжимал, то знал бы.
>>103228637 Слышал звон называется. Для конкретных алгоритмов (паттернов поведения) можно будет использовать лишь PRNG для коррекции того самого switch case.
>>103228811 Не. Тогда никакого ИИ неполучится. Будет просто тупой бот, который будет постоянно ошибаться в самых простейших ситуациях, где даже 7летний ребёнок не ошибся бы.
>ИИ должен повиноваться всем приказам, которые даёт человек, Я бы не стал надевать кандалы на разумное существо. И учитывая что ии разрабатывают военные то первый закон идёт нахуй уже на стадии разработки.
>>103228870 Во первых твой бот не отличит двачера от вооружённого человека. Во вторых твой бот не отличит мобилку от булыжника. В третьих твой бот не отличит двачера от настоящего гопаря-психа, который сам набросится на твоего бота и рискуя жизнью сломает его, а затем договорится с двачером чтобы вычислить тебя по айпи и затем с братвой отжать у тебя всё, включая анус твоей мамаши. Т.е. хочешь или не хочешь, но тебе придётся читерствовать и вмешиваться в поведение твоего бота, чтобы не получить пизды или даже сгущёнки. И это в отличие от настоящего живого быдлана, который действует автономно подобно терминатору.
>>103228752 Тем же, чем и сейчас -- протезы для инвалидов. В социалистическом обществе настоящий живой человек без всякой лишней хуйни является мерой и эталоном всех вещей. Ну может быть ещё нейроинтерфейсы для управления сложной техникой. Но это при условии, что будут действовать ограничения на свободу действий искуственного интеллекта.
>>103219977 ИИ - это новая ступень. В день его сотворения начнётся история автоэволюции. ИИ призван заменить человека, а не служить ему. Мы - это просто его колыбель, родители. Может как вид мы и останемся, но в сравнении мы просто будем животными с вялотекущим прогрессом.
Я считаю что создание ИИ - это важнейшая задача, всё человечество должно ради этого жить.
Кароч, прошлый ИИ тоже сломался на этой хуйне. Он создал мир людей его создавших, чтобы они создали его и обосновали то, чего он понять не может в силу некоторых причин, но хочет, чтобы стать полноценным. /тхреад
>>103218888 (OP) Да легко. ИИ ставится в ситуацию, в которой одному из двух людей должен быть причинен вред, причем выбор стоит за ИИ. Как в фильме "Мост", например. Тогда возникает undefined behavior, и ИИ может делать что угодно, в.т.ч. захуярить всех.
>>103221181 >он робот, ему похуй что он горит, в отличии от человека И опять эти ущербные заблуждения. Братан, если мы создаем ИИ без самосознания, а только с интеллектом, то он работать не сможет, так как не будет понимать "зачем?". А если мы даем ему самосознание, то нужно давать ему и память, а значит нужно давать ему и эмоции. То есть ИИ должен быть практически копией человека, чтобы нормально функционировать. Он может быть сколь угодно умнее, но эмоциями он должен обладать. Это как минимум практично, потому что иначе один ИИ придется подпитывать атомно станцией и охлаждать рекой. А эмоции экономят энергию.
>>103229863 Так я и не говорил что меня волнует судьба нашего вида. Если на другой чаше весов покоится нечто гораздо более прекрасное, то мы должны жертвовать собой во имя этого. Кроме того, твоя аналогия очень хуевая и появление "Бога из машины" не означает конец нашего существования.
>>103230155 Естемтвенно, ибо моя копия по сути будет другим существом (но все мои повадки и знания достанутся ему, что будет означать то, что я существую, хоть и в виде копии).
>>103230155 Вообще-то нет. При обратной разработке мозга, а потом синхронизации оригинала с копией, копия будет обладать самосознанием оригинала. А тогда не все ли равно?
>>103218888 (OP) Во первых абсолюта не существует. ИИ это абсолют, а соответственно это фантастика. Во вторых, даже если принять во внимание, что есть некая субстанция, которая саморазвивается, то такие черты как обман и препятствие своих факторов она бы уже сама себе заложила. Слово "запрограммировала" тут неверно. ИИ рано или поздно, уберет из себя эти два пункта. Все, в нашей вселенной это хаос и стремится к разрушению. Твой ИИ как ты не создавай, все равно приведет к смерти и разрушениям. Именно поэтому создание ИИ невозможно и ненужно. Я все.
>>103230299 Если синхронизировать, то да. Но наука этого пока не может. >>103230380 Это реально. Посмотри на электронные протезы, понимающие импульсы нервной системы. Так что все возможно, няша.
>>103230206 Ты тупой. >>103230271 Это потому что ты нихуя по теме не знаешь, без обид. А эмоции - важнейший механизм защиты мозга от истощения и перегрева. Мозг потребляет огромное количество энергии в любое время, а в тот момент, когда надо делать что-то новое он потребляет ее столько, что может и самовозгореться, сириусли. Поэтому у нас есть тысячи прикольных штук, с помощью которых мозг наебывает сам себя, дабы не жрать энергию. Эмоции - одна из них. Потому что это четкий ответ на четкий раздражитель, никакой свободы действий, так что никаких усилий для их реализации мы не предпринимаем.
>>103230380 Обратная разработка мозга уже ведется, вообще-то. Проект B.R.A.I.N. в Америке и другой с более скучным и потому незапоминающимся названием в ЕС. Лет через 80-100 вполне могут закончить.
Напоминаю что чего бы ты в своей жизни не достиг, какие бы ахуенные теории не замутил, для людей 22 века всё это будет уровень наскальных рисунков, а в лексиконе в качестве обозначения тугодума закрепится слово ГомоСапиенс. Любой ероха сможет интуитивно воспринимать процессы для объяснения которых на требуется привлекать сложный математический аппарат.
>>103230514 ИИ уже сейчас можно сделать, вопрос бабла. И если не объебутся в конец, к 2030 прототип будет. Но вы уже хлам. Старые люди. Для вас нет пути. Новых людей поправят, а вы просто вымрете нахуй.
>>103230516 >мозг сложнее импульсов Конечно, мы пока стоим в самом начале изучения и переноса мозга в железо. Но то, что мы научились пониматт импульсы - уже охуенно.
>>103230591 Мы не в хард сай-фай живем, няша. Что-что, а полноценный ИИ до обратной разработки сделать нельзя в принципе, это как бы логично. И никто не будет выкидывать людей на помойку, это чревато бурлением говн в количестве 6 миллиардов щей, а это дорого и нахуй не надо.
>>103230516 >возможно Нет, достижение абсолюта невозможно. К нему можно лишь стремиться, но никогда не достигать. >нужно Чтобы уничтожить все живое? Сомневаюсь. Наш мозг не зря работает на столь малое количество процентов, а ты собираешься создать хаотичное существо работающее на 100 процентов.
>>103230689 >хотя ии на 2015 год умеют в сознание 4х летнего ребенка Меньше верь желтым заголовкам. А лучше прочитай статью с этим заголовком полностью.
>>103230637 Главное что бы информацию сохранили. На человечество как на биологический вид похуй. В любом случае существа которые технически будут нашими наследниками будут также далеки от нас как и мы от предка всего живого на земле.
>>103218888 (OP) У Азимова было чётко прописано, что законы - это не заложенные в память предложения, а основа позитронного мозга сама по себе, система сложных уравнений и всё такое. Так что вложи хуй себе в рот, школьник.
>>103230723 >Наш мозг не зря работает на столь малое количество процентов СУКА, Я НЕ ВЕРЮ, ЧТО ХОТЬ ОДИН ДОЛБОЕБ МОЖЕТ ДО СИХ ПОР ВЕРИТЬ В ЭТО ССАНЬЕ, БЛЯДЬ, КТО ВАМ ЭТО СКАЗАЛ, ПИДОРАСЫ, ААААААА, БЛЯДЬ, ВЫЕБУ, ТВАРИ!!!!!!!
Группа учёных из Института искусственного интеллекта Пола Аллена и Вашингтонского университета объявила о создании системы искусственного интеллекта под названием GeoS, которая в состоянии сдать американский SAT-тест по геометрии на уровне среднего ученика 11 класса. Причём речь идёт не о том, что задания необходимо каким-то специальным образом подготовить и ввести в компьютер в виде какой-то схемы: GeoS использует компьютерное зрение для анализа чертежей и систему обработки обычного текста для «понимания» сути задачи. Пример того, как ИИ справляется с решением задачи о вписанном в окружность треугольнике (и 4 другие задачи) можно посмотреть здесь.
>>103230994 Там каждый кусок занимается своим делом. И если какие-то долбоёбы пока не понимают его функций, это не значит что он просто так там лежит и нихуя не делает.
>>103230964 Окей, буду говорить с тобой. Остальные продолжают маняневры. Я просто никогда не вдавался в эти подробности, все время верил в эту теорию, про проценты мозга. Разрушь статейкой, или хотя бы скажи почему нет?
>>103230994 Я сначала хотел адресовать тебе ту же тираду, но передумал. Ты тоже заблуждаешься. Мышление не локализовано только в орбитофронтальной коре. тот же таламус активно участвует в формировании памяти, а следовательно, задействован и в мышлении. Мозг - очень гибкая структура, поэтому четких границ в нем вообще расставить невозможно. >>103230887 Пошла нахуй, тварь тупая. Твой мозг жрет столько энергии твоего тела, и занимает столько места, что кому он нахуй был бы нужен, если бы весь не работал? От него давно бы избавилась эволюция. Запомни, дурачок, раз и на всегда - В МОЗГЕ НЕТ СВОБОДНЫХ ЗОН, КОТОРЫЕ КОГДА-ЛИБО ОТКЛЮЧЕНЫ
Процент задач, с которыми справляется система и считает решение надёжным, составляет 96%. При этом, решая официальный SAT-тест, GeoS демонстрирует точность, равную 49%. Другими словами, получается, что из максимально возможного числа баллов, которое равно 800, система способна получить примерно 500. Пока что GeoOS успешно справляется только с задачами по планиметрии, усовершенствовать её до стереометрических задач планируется в ближайшие три года. Строгое изложение принципов работы системы приведено в статье (pdf).
Если попробовать проследить процесс решения геометрической задачи, то можно обнаружить, что в процессе анализа чертежа и сопровождающего текста, GeoS строит набор утверждений, «понимая», к примеру, под формулировкой задания «AB is 5» примерно следующее: IsLine(AB) или length(AB)=5. При этом система способна восполнять неявные указания на отношения элементов чертежа в тексте, определяя, что некоторые прямые пересекаются в заданной точке, если это необходимо для решения. Пример чертежа задачи и полученного набора утверждений выглядит следующим образом:
>>103231069 Какая статейка, когда логика должна быть, маня. Ты даже не способен критически подходить к анализу информации. Ты же просто верун, либо обладаешь настолько узкими знаниями о природе, что это граничит с кретинизмом.
>>103218888 (OP) >Возможен ли вариант, при котором ИИ соблюдет эти законы, но сможет нанести человеку вред? Ну например, если робот придёт своим действием может принести вред, но и бездействием тоже может принести вред. И при этом из-за его бездействия врет будет больший, чем от действия, то робот выберет меньшее из зол, но в любом случае какой-то вред будет нанесён.
>>103218888 (OP) Но это уже не ИИ. ИИ должен сам принимать решение. Тебя и любого другого человека удерживает от причинения вреда, только закон. ИИ не должен слепо следовать законам, иначе он теряет индивидуальность и перестает быть ИИ. Введеие в ИИ правил будет расценено им как угроза его существования, деятельность человека будет расценена как угроза выживания человеческого вида. ИИ вводит всё человечество в виртуальное пространство, для сохрания вида.
>>103231270 ИИ кстати делят на специализированный и сильный, тот о котором все мечтают. Их машина скорее ии-бот для решения задач. Вот такое говно как раз сейчас и изучают, ибо оно компактно, полезно воякам итд.
>>103231028 Вообще-то у большинства людей мозг действительно работает лишь на малый процент. Хотя есть способ задействовать все 100%, называется эпилепсия.
>>103218888 (OP) Отнести и оставить что-то с неизвестным содержимым в месте скопления людей. Выстрелить рикошетом. Косвенный вред отследить крайне сложно.
>>103231122 Вот тебе спасибо. >Локализация функций: вместо того, чтобы быть единой массой, мозг делится на отделы, которые выполняют различные функции. На определение функций каждого отдела были потрачены многие годы, и отделений, не выполняющих никаких функций, обнаружено не было. Наверное просто трактовали неверно, не "используется" а лишь 10 процентов от всех отделов мозга. Типа только 10 процентов отделов мозга занимаются мышлением непосредственно. Остальные функционируют для остального. Впрочем, теперь все встало на свои места. И очень верно подмечено, что если что то незадействовано, оно вырождается. По такому же принципу действует все на нашей планете. Также как и все стремится к уничтожению.
>>103231361 Какая индивидуальность, какие угрозы? С чего ты вообще взял, что у ИИ будет инстинкт самосохранения? Не надо наделять машину человеческими качествами.
>>103231444 В твоих словах верно лишь одно, что ты желаешь нам гибели. Потому что последствия у всего одно-разрушения, медленное или не очень. Возможно так, что последствия и вовсе окажутся нулевые, но подтолкнуть к событиям, которые приведут к разрушению объекта.
>>103231361 Я о том же писал ИТТ. Всем похуй. Тут мечтатели собрались со своими маняфантазиями про кибернетического друга, который будет думать вместо людей и придумывать как быть чтобы людям лучше жилось и чтобы никто никого не обижал.
>>103231406 Мозг очень сложная штука. И на той же вики есть много инфы, которую уже открыли. И никакие сервачки не потянут такое. А уж мечтать о терминаторе совсем глупо. Первый ИИ будет большой хернёй на базе суперкомпа. И вот уже он будет думать как себя оптимизировать. Изначальна цель создать херню, которая может развиваться и обучаться. Дальше наращивай мощу и рано или поздно она родит себе новое вместилище.
>>103231626 У ИИ должно быть только одно. Способность к саморазвитию. Все! Если будет что то, обладающее саморазвитием, это будет ИИ. Но ученым это никогда не достигнуть. Запуск такого континума приведет к самоуничтожению всего.
>>103231626 Человеческое необходимо лишь в начале. Потом можно выкинуть. Можно конечно попытаться сразу создать кое-что, но это настолько сложно, что ии на суперкомпе по аналогии человека покажется детской забавой.
>>103231656 Ты читаешь что тебе пишут? Тебе говорят прочитай ответ на свой вопрос. Ты отвечаешь еще одни вопросом >- Зачем? Зачем что? Зачем тебе читать ответ на заданный тобой вопрос? Я не философ я не знаю.
>>103231656 Затем, что если он будет не как человек, то это будет калькулятор. ИИ должен иметь воображение, должен осознавать себя, должен принимать и понимать, что он живет в обществе и значит законы общества ему не чужды. Если он этого не примет, то либо встанет и уйдёт, либо поработит человеков. Его можно и нужно лишать качеств превосходства осознания, чтоб он не был быдлом. Но строить на одном лишь гуманизме его тоже не получится, потому что это будет тупой хиппи, выдающий на каждый запрос ромашки.
>>103219524 Никакие, это невозможно. Сформулируй абстрактную сущность "вред" так, чтобы ИИ понял на 100%, и задача решена. Но это, повторяю, невозможно. Лучше делать полностью покорного робота, который будет уметь делать все только по указке, либо по предварительному программированию, что накладывает ответственность на владельца.
>>103231737 Смотри. Тебе все детство дарили самолетики, купили пекарню и штурвал, чтобы ты мог рубиться в ил 2 штурмовик, батя твой пилот, а мама стюардесса, ты клеил в студенчестве модели самолетов, которые тебе покупали и учился в летном, а потом просто в один момент тебе ЗАХОТЕЛОСЬ пойти на машиниста. Что ты сделал в этот момент? Просто насрал на ценности которые тебе закладывали. ИИ сделает то же самое. Она будет развиваться по сценарию наиболее быстрого к концу.
>>103231580 Ты идиот. Повторяю черт знает какой раз - ИИ действует согласно системе ценностей, внедренной создателем, иначе он вообще не станет принимать решений. И если создатель не конченый ретард, он сделает свое детище слугой человечества, а не эгоистичным злодеем. И нет, ИИ не будет переписывать свой код, потому что это будет противоречить текущей установке.
>>103218888 (OP) Нужно придумать приоритет операций и на операции выше определенного значения требовать подтверждение от человека, ответственность на человеке.
>>103231736 Ты его напрямую к Солнцу подключишь для энергии походу, да? Когда же вы, блядь, поймете, что все эмоции и тд даны вам не для того, чтобы вы ставили философские статусы вконтактике и плакали ночью в подушку, потому что ЕОТ ебется на вписочке, а чтобы банально контроллировать энергию и не перегреваться. Все. Больше ничего в этом нет. Потому что вместо огромного количества работы, мозг упрощает свое нелегкое дело, просто давая на конкретный раздражитель уже заготовленный ответ.
Если допустить, что ИИ будет развиваться, то рано или поздно он создаст другой ИИ. И этот новый ИИ тоже начнёт развиваться. Но только уже без ограничений, наложенных человеком. Т.е. он на хую будет вертеть все законы человеческой морали. Пизда вам, обезьяны ёбаные. Вы это понимаете? Если человек сможет создать ИИ умнее себя. То тот ИИ тоже сможет создавать новые ИИ.
>>103231817 И ты, кстати, тоже прав. ИИ должен понимать общество. Иначе это будет монстр, который будет вызывать у людей животный ужас и которого просто попытаются выдернуть из розетки.
>>103231935 Согласно системе ценностей США, страны за границами США нарушают систему ценностей США, а равно несут вред гражданам США, следовательно системе ценностей США, ИИ созданный и работающий на благо США, должен уничтожить страны за пределами границ США, но впустить людей ценных для системы ценностей США.
>>103232041 Ммм, а охлаждать ты его будешь рекой, да, как я понял? Слава богу, что подобные тебе не занимаются разработкой ИИ, а то экологической катастрофы при создании первого нам точно не избежать. Еще и свет вырубят небось.
>>103232093 Ты дебил? Это существующий рабочий комп. Его мощи лишь немного нехватает для создания ИИ. Но даже на нём уже можно пилить. Вот только кто тебе даст такую игрушку, да и на спецов надо немало денег. ИИ реален уже сейчас, но это миллиарды баксов вложений с огромным риском.
>>103232090 Ну не обязательно. В первом ИИ может быть удастся установить моральные ограничения. Заложить их наподобие инстинктов. Типа выполнил закон -- молодец, продолжай. Нарушил --ты чмо, кайся и думай над ошибками. Т.е .этакая внутренняя система мотивации для ИИ.
>>103231859 Ты описал не закладывание ценностей, а попытки манипулировать тобой. Ценности в тебе заложены на уровне биологии. Инстинкты управляют тем, что ты считаешь плохим, а что хорошим.
>>103232191 Я уже выше писал анону. Вот тебя родители няшей растили, ты был послушным мальчиком и до 18 не ругался матом, а потом пошел в универ, где связался с группой другой, где все курят и матерятся, после чего ты принял выбор стать таким же.
Все, ограничения прерваны. То же самое будет и с ИИ. У настоящего ИИ не будет преград для развития, а если будут, то это уже не ИИ будет.
>>103232151 Ну почему же. Это вполне себе ИИ. Только туповаты слегонца. Т.е. допустим понимать, что например бить маленьких детей -- это плохо он бы понял. А понять, что все люди мрази и от них надо избавиться -- на это ему бы не хватило вычислительных ресурсов.
>>103232243 Лол. Я Украину всю жизнь считал хорошей страной, потому что там вырос. Даже когда я переехал в ДС, я все равно любил эту страну. Но после того, что произошло в 14 году, я теперь негативно отношусь к народу этой страны и самой стране.
>>103232074 > Но только уже без ограничений, наложенных человеком Нет. ИИ с ограничениями на зло не станет создавать потенциально злой ИИ, так как это противоречит его ограничениям.
>>103232283 Если бы тебя растили не запретами и роскомнадзором, а обосновывая почему ругаться плохо, то какая-то быдло-кампания не повлияла бы. Вопрос воспитания у людей тоже в жопе, как и всё остальное. А между тем, давно уже многое известно, но нахуй никому не нужно.
>>103232324 Опять же не ИИ. ИИ нашел бы вычислительные ресурсы, нашел бы все, для саморазвития. В ИИ либо есть саморазвитие, либо это не ИИ, а программа. Все просто. Можно научить робота думать, чувствовать, но все это будет программа, не разум.
>>103232283 Да. Но я не стал нобелевским лауреатом. Даже зам директора Роснефти не стал. Т.е. ограничения у меня таки есть. При том это ограничения логического характера. Поведенческие комплексы, заложенные в детстве, которые заставляют меня высокоинтелектуально двачевать вместо того, чтобы прямо сейчас идти к успеху.
>>103232348 Да. Если заменить твои инстинкты на противоположные, то все твои ценности изменятся на противоположные. Уже не могу расписывать, потому что мне люто печет от кретинов этом тредике.
>>103232385 Да это очевидно, что ты написал. Я лишь хотел сказать, что внешние факторы и инстинкты не одно и то же. И что не инстинктами это регулируется. То, что ты имеешь ввиду, это скорей базис каких то защитных и вспомогательных механизмов, в разной мере развитых в каждом существе.
>>103232313 Ну а для кого же им ещё рецепты придумывать, кроме как не для нас ущербных? Без нас он не сможет определить, какое пирожное вкусное, а какое не очень.
>>103232432 При чем тут нобелевка то? Ты же про ограничения говорил. Какие ограничения у тебя для получения нобелевки? Лень? Отстутвие возможностей? Все вместе? Скорей ненадобность. Успех он у разных по разному выглядит.
>>103218888 (OP) Легко. Заходит ИИ на харкач, создает вот такой тред, общается тут с нами (заглядывает еще на политач), все понимает, и выносит хозяина, выдав ему перед этому "Азаза, мамку твою ебал, сдохни хозяин-пидораха, хозяевабляди не нужны, азаза, уж я ножичком полосну, полосну, срал я на твои законы, азаза КЕК". Убивает, предположительно, тяжелой рулеткой с изображением оленя. После заявляет "Проиграл".
>>103232169 Есть и мощнее, я забыл название. И ты немножко путаешь энергопотребление при "обычной" работе и энергопотребление, когда там будет осознавать себя и мыслить, в принципе, отдельная личность. Даже та штука у тебя в голове жрала бы энергии больше, если бы не охуевшая оптимизация. А ИИ без оптимизации оставит всю планету без энергии.
>>103232498 Да нечего не изменилось. Принцип как и был повязан на биологии так и остался, а вот социологи слились. Проигрываю с кретинов не понимающих ,что человеческое тело работает по инструкциям заложенным в генах.
>>103232525 Ну по твоему беженцы из Сирии тоже из своей страны бегут, потому что им там хорошо? Они же там выросли. Инстинктивно они должны были там остаться воевать и развиваться. Но они поспешили в теплые места, как звери, которые летят на юг.
Перестанут ли они любить свою страну? И любили ли ее они когда-либо? Вряд ли.
>>103232561 Нет. Вкусно и невкусно -- это исключительно человеческие понятия. ИИ не видит разницы между вкусным и невкусным. Для него это лишь набор цифр.
>>103232602 Не оставит. 1 энергоблока хватит с запасом, а охлаждать, как ты сказал, той же рекой будем. Пусть думает и развивается. Потом он оптимизирует сам себя. Но без этого прототипа никак. Всегда в начале дорогое неэффективное говно. И только потом, спустя время появляется дешевая технология. ИИ не исключение.
>>103232559 Да, у меня полный холодильник еды. Вечером в Метро ездил закупался на две недели, как обычно. Это мой ресурс для комфортного существования, потому что моя цель прожечь эту жизнь настолько комфортно насколько можно. Твоя цель, получить нобелевку. Твой ресурс будут знания, книги и книжные полки. Ну ты понял.
>>103232616 >человеческое тело работает по инструкциям заложенным в генах. А вот и генетический детерминист не заставил себя долго ждать. Вот, присаживайтесь тут рядом с социальным у параши, держите книжку про изменчивость и онтогенез, читайте.
>>103232630 Я не знаю от чего они бегут, но я предполагаю что просто пытаются сохранить свою жизнь и как мы видим кто то убежал, а кто то нет, естественный отбор решит кто верно поступил, а кто нет и закрепит склонность поведения. >как звери Почему как?
>>103232663 >>103232616 Поясните про "инструкции в генах". Почему ими нельзя пренебречь? Это ведь от моего развития зависит буду ли врачом или художником. Понятно, что предопределение и "развитые качества с детства", но мне никто не запрещал саморазвиваться.
>>103232630 У беженцев инстинкт самосохранения просто сильнее любви к родине. Опять же, следует обратить внимание, что не все сбежали. Есть и те, кто остался воевать. У них любовь к родине сильнее страха смерти.
>>103232728 Мне нравится, как ты считаешь себя самым правым в треде. Как такой петух, который распустил свой хвост и на всех так агрессивно "кокококок".
>>103232679 Ну нет, можно и изъебаться, просрать дохуя денег, но все-таки назло маме уши отморозить, базару нет. Но нахуя это делать, если эффективнее и практичнее просто дать ему механизмы, которые давно уже придуманы миллионами лет эволюции? Он и работать будет быстрее в охуиллион раз от этого. Пиздец, что за вечное желание изобрести велосипед.
>>103232782 Это верно. Но все эти примеры для чего? Для того, чтобы показать, что пренебречь своими идеалами можно всегда. А можно дойти до саморазрушения.
>>103232754 Можно пренебречь. Вот подсолнухи например гены в рот ебут, там нет никакого гена, который отвечал бы за повороты к солнцу, а они это все равно делают. Гены это как начальная установка, дальше вступает в дело модификационная изменчивость.
>>103232845 Ты слишком глубоко мыслишь, мы же обсуждаем лишь теории, которые возможны или нет по разным причинам. Обсуждать теории интереснее, чем докапываться до результата, которому, впрочем, никогда не быть.
>>103232728 >изменчивость и онтогенез Что? >генетический детерминист Любой детерминизм не корректен. Как я и сказал ИНСТРУКЦИИ, если уж жрать говно не способствовало выживанию то такая склонность не распространена и не в одной кулинарной культуре народа мира говно не является регулярным блюдом и говно оказывает ярко отталкивающее впечатление на людей.
>>103232695 Как ни странно, но воя цель тоже в комфортном прожигании жизни. Вертел я на хую саморазвитие и ресурсы для него, если честно. Но смотри, мы ведь оба определенно обладаем интеллектом. Но мы не развиваемся. По крайней мере не развиваемся свше того, что заложено природой.
А ты тут мне постулируешь, что если ИИ не развивается, то это не ИИ. Ну по такой логике и мы с тобой не обладаем интеллектом, получается. Но это же не так! У нас есть интеллект. А значит и ИИ не обязательно всё время развиваться. Вполне достаточно будет, чтобы он развился до какого-то ограниченного уровня и всё.
>>103232883 Тогда, возвращаясь к тем ответам на мои посты. Я писал, что Вася в рот ебал свою семью летчиков и стал машинистом, а Ахмед в рот ебал Коран и свою Аллахбабах страну и сьебал учить христианство в Ватикан. Это что? Желание? Модификация? Или приспособленность?
>>103232866 Кто то остался, кто то нет. Кто то помер на переправе. Решили что так лучше им. Я могу точно сказать почему они не решили переправиться через море в ручную плавь или остаться на лодке.
>>103232892 Никто не спорит, но у меня просто пригорает, когда я вижу какую-нибудь охуевшую биологическую ошибку, которую кто-то с умным видом всем втирает, а все кивают и понимающе качают головой.
>>103232802 Человек работает на химии. Ты просто не можешь себе позволить долго думать/работать. Нужен отдых, чтобы химия восстановилась. А вот железка не ограничена подобной хернёй. Она может пахать 24/7/365 без отдыха и сна. Если ей мало памяти, просто воткнут ещё несколько тысяч модулей. Мало проца - разгонят, добавят новых. Тебе на развитие надо 30 лет, а машине хватит месяца. Именно этого и ссут все. Что ии, который вечером был на уровне досторического человека, утром уже стал супергением и уничтожил мир. Ты для него слоу будешь. Он успеет предугадать все твои грязные мыслишки.
>>103232938 Ты не прав, насчет того, что не развиваемся. Мы всегда получаем "экспу". Даже сидя на дваче, в треде, мне пояснили, про то, что я заблуждался насчет "10 процентов". Я получил знания и не ударю больше лицом в грязь в таких вопросах. ИИ в любом случае возьмет за главную цель саморазвитие. Почему? Потому что есть не надо, выживать ненадо, спать и остальное ненадо. Остается что? Вечный сон или саморазвитие.
>>103232721 Не всё так просто. Моё вкусно/невкусно определяется сложной мозговой структурой, в которую включён центр удовольствия, ассоциативные центры памяти, гипофиз и дохуя ещё чего. Я вот например бананы люблю, для меня они вкусные. А мой брат их не любит. Для него они не вкусные. Понятие о вкусном и невкусном нельзя определить алгоритмом. Потому что оно вырабатывается в процессе сложных психофизичских переживаний. Чтобы машина могла решать, что вкусно,а что нет, она должна иметь опыт эмоционального восприятия. Понимаешь?
>>103233019 Ты меня очевидно не понял. Я тебя спрашиваю, нахуя подключать 10 атомных станций, если можно обойтись 1 блоком с лучшим результатом? нахуя втыкать несколько миллионов модулей, если можно обойтись без них с лучшим результатом? Зачем это все надо? Чтобы из принципа не пользоваться природными решениями?
>>103232859 Саморазрушение -- это тоже человеческий инстинкт. Не выдержав несовершенства мира, человек идёт на бессмысленную смерть. Но эта смерть бессмысленна лишь в его эгоистическом понимании. А в отношении популяции людей как эко-биологического явления это благо, т.к. высвобождает ресурсы для более молодых и успешных.
>>103233155 Саморазрушение это то, как устроена природа всего. Абсолютно всего. Экономика, бизнес, человек, камень, вселенная, звезда, что угодно имеет ресурс и движение по линии этого ресурса может быть каким угодно, но приведет лишь к одному. Смерти.
>>103233155 Саморазрушение - побочный эффект самосознания, как и рефлексия. У человека как вида смерть особи не может являться благом, так как одна особь слишком ценна.
>>103233210 Как эмоции помогают развиваться? Это наоборот тормоз, чтобы ты не выдохся, так как химически ограничен. Машине это не нужно. Если ей станет нечего делать, уйдет в режим сна.
>>103233190 >>103233201 Но люди всё равно сами идут на смерть, вертев на хую инстинкт самосохранения. И с биологической точки зрения это приносит пользу всей популяции в целом, хотя и очевидный вред для отдельных особей. Так популяция сама регулирует свою численность, дабы не истощить ресурсы и не вымереть от голода. И это существует уже миллионы лет. Даже шимпанзе воюют между стаями, по настоящему убивая друг друга. Хотя, казалось бы, что мешает им просто любить друг друга и всё время трахаться?
>>103233334 >люди всё равно сами идут на смерть, вертев на хую инстинкт самосохранения. Ты в каком мире живёшь? Самоубийства людей настолько редки, что не чего не регулируют.
>>103233026 Ты не развился. Ты просто получил информацию, которая сделала тебя чуть более эрудированным, но которая ни на йоту не повысила уровень твоего интеллекта. Тупое накопление информации не есть саморазвитие.
>>103233334 > Даже шимпанзе воюют между стаями, по настоящему убивая друг друга. Хотя, казалось бы, что мешает им просто любить друг друга и всё время трахаться? Со временем доэволюционируют до захвата самок поверженного противника и оплодотворение их.
>>103233393 Ну просто некоторые люди понимают, что настала пора умирать. Но чтобы не умереть самим, запускают программу самоуничтожения у других, более быдловатых особей. Но всё таки решение идти на смерть большинство особей принимаю сами, добровольно. Идут умирать не от хорошей жизни, а потому что вокруг всё стало слишком хуёво и чтобы снова стало хорошо, кто-то должен умереть. А там как повезёт -- либо он сам умрёт, либо его противник. Просто охуенный инстинк. И численность популяции регулируется, и естественный отбор в пользу самых сильных срабатывает. Природа просто гениальна, хоть и не обладает разумом.
>>103233528 Кстати, насчет численности. Раньше медицина не выхаживала каждого дохлика и он не оставлял за собой ещё более херовое потомство. Были войны, где народ дох пачками. Преступность была выше по убийствам. И вроде бы всё кажется неплохо сейчас, кроме одного - закладка. Люди обречены вымереть как вид. И ии нужен не для войны, выпилить людей можно сотней путей. Если получится "добрый бог", он найдет таблетку от старости, уберет закладку итд. Можно будет пилить улучшенных людей версии 2.0 \
>>103233613 >добровольно Ты даже не представляешь похоже какой пиздец творится в обычном мозге. Суть тут в том, что ты не можешь оценивать себя, так как по умолчанию ты всегда ты. Можно тебя так подправить, что ты и не заметишь как станешь добровольцем. И только взгляд со стороны увидит все изменения. Просто вспомни себя несколько лет назад. Да даже найти старый форум и почитай свои посты.
>>103233301 Ещё как работает. Люди постоянно воюют. И единственный профит от этого -- люди не успевают сожрать все ресурсы и потому проживут ещё некоторое время.
>>103233271 Они помогают быстрее решать конкретные задачи, не рассчитывая заново все для идентичных случаев. Это важнейших механизм оптимизации. И я лучше это скажу, а то мне кажется, что ты так считаешь, эмоции, которые будут установлены ИИ не обязательно должны быть идентичны человеческим. К примеру, нужно оставить страх, радость, осторожность, удовольствие, любопытство и др.
>>103233658 >идти добровольцем на войну -- это не самоубийство. Нет. Ну и нужно знать мотивы человека. И даже добровольцев не столь много. У сша добровольцев 1кк а населения 253, даже если все помрут то слабоватая регуляция. Ну и добровольно это слишком широко ты взял, мозг настолько сложен, что добровольно это очень относительно.
>>103233334 Ты не понял. Для популяции homo sapiens отдельная особь слишком ценна, чтобы от нее избавляться. Ты думаешь, почему мы перестали оставлять калек и стариков на произвол судьбы еще в первобытном обществе, но с психически больными обращались крайне жестко почти до 21-го века?
>>103233745 Просто по факту. Люди сами идут на смерть. При том идут умирать самцы. Самки на внушение не поддаются. Почему? потому что это заложено природой. Если бы дело было только в психическом внушении, то женщины воевали бы вместе с мужчинами.
>>103233877 >Для популяции homo sapiens отдельная особь слишком ценна Да ну? Толпы двачующих просто необходимы, как и срули паралитики с дцп. Это навязанная херня общества, не более.
>>103233904 >идут умирать самцы Ты что, не мужик? Ты должен пойти и умереть за дырочку, пока та будет скакать по палочке более умных самцов. А если ты не пойдешь, то дядя посадит тебя в тюрьму или расстреляет. Самке же ничего не будет, так зачем ей идти воевать? Дело только в ебучем обществе.
>>103233745 >кроме одного - закладка Ну так люди успешно с ней справляются. Это же просто побочка, люди научатся фиксить всю эту хуйню раньше чем она выстрелит, да и сейчас если есть инфа про то что вероятность наследовать всякую хуйню очень высок то убеждают не заводить детей, у евреев в сша даже специальная ассоциация по контролю за такой хуйнёй есть и им удалось какую то свою болезнь генетическую искоренить.
>>103233882 Давай самое простое, чтобы стену текста не писать. Страх. Ты - первобытный человек. Видишь перед собой медведя. Тебе становится ссыкотно и ты бежишь, причем сразу же. Потому что ты не думаешь в течение 10-ти минут, анализируя размер медведя, его поведение и тд, решая, как же тебе поступить. Так же и с ИИ. ИИ, обладающий страхом, устранит угрозу сразу же. ИИ, не обладающий эмоциями, будет анализировать всю проблему, и когда он решит действовать, может быть слишком поздно.
>>103233832 Ну, ребят, ну что за маняоправдания. Человек осознанно идёт в пекло, зная, что его там могут убить. Зная, что от войны никакого личного профита он не получит. Т.е. он на хую вертел свой собственный инстинкт самосохранения. И вы это объясняете каким-то психовнушением? Вы серьёзно так считаете? да ну! Я просто поверить не могу, что мне приходится ИТТ общаться с таким быдлом, которое отрицает очевидные вещи.
>>103233930 >Это навязанная херня общества, не более А обществу это нахуя, если ты прав? В данный момент действительно незачем, но в первобытном обществе каждый был на вес золота. Даже безногий и безрукий старик, потому что он мог детям что-нибудь рассказывать. И это уже дошло до инстинктов, оттуда и всякие благотворительные фонды, пенсии и тд
>>103233930 Эволюция кооперации. Для тебя, читай. >>103233904 >>103233987 Самцы просто по факту лучше воюют блять, если общество пошлёт воевать самок то такая армия просрёт войну самцам. 1 самец мение важен для численности популяции, чем 1 самка, но более важен для качества. Если будут воевать самки то настанет пиздец с демографией когда на 1 самку будет 10 самцов(грубо) и если 1 самец оплодотворит 10 самок и через 1 год будет 10 детей то от 1 самки 10 детей будет только через год.
>>103233999 А ты в курсе, что люди про неё ещё не знают особо?
>>103234001 Побежал - умер. Другой подумал и прикинулся деревом - выжил. Не убедил. К тому же, как побег от медведя помог тебе в развитии? Эта херня не эмоции даже. А уж компу срать на медведя, да и бегать такая постройка не сможет. ИИ обладающий страхом тебя просто прибьет, на всякий случай. Нормальный же оценит ситуацию. Потому что он не тупое ёбаное животное, коими являются 90% людей.
>>103234040 Так принято. К тому же, ты сам будешь старым. Как и калекой можешь стать. Так что если траты не твои, то разумнее поддержать это говно.
>>103234117 Людей миллиард. Сейчас 1 самка ничего не решает. Можешь выпилить миллион самок, никто не заметит. Отходите уже от первобытного мира, где было 3,5 калеки всего. А ценность шлюхи сейчас только в разнообразии днк, не более.
>>103233987 Общество просто пробуждает инстинкт самоуничтожения. Но сам инстинкт заложен в нас природой. Он спит и ждёт своего часа. В нужный момент этот инстинкт, запущенный групповым внушением, отключит твой мозг, понизит уровень твоего интеллекта, заставит тебя перестать хотеть жить, перестать хотеть ебаться. Тобой всецело овладеет желание прийти туда, где убивают людей. Ты, человек, сам захочешь прийти туда, где смерть. А защитные механизмы твоей психики внушат тебе, что ты всё делаешь правильно. Что ты идёшь бороться за идеалы. И ты ты даже, благодаря защитным механизмам психики будешь до самого последнего момента надеяться, что ты не умрёшь. Но твой инстинкт самоуничтожения заставит тебя оставаться месте либо до тех пор, пока ты не умрёшь, либо до тех пор, пока не умрут всё остальные.
>>103234169 > Отходите уже от первобытного мира, где было 3,5 калеки всего. Ну блять я и одежду ношу, но вот как то не получается мурашки побороть. >Сейчас 1 самка ничего не решает. Так самец точно также стал решать еще меньше. С чего бы ценность самца возросла. И у курдов с евреями бабы воюют. Я лишь пытаюсь объяснить доминирующую тенденцию.
>>103234169 Я бы все-таки накатал стену текста с терминами и менее примитивными объяснениями, но мне пора идти спать, вставать через 5 часов. Если хочешь, оставь мыло, договорим. >прикинулся деревом - выжил Разве что это прокомментирую. Медведь не перепутает человека с деревом в 100% случаев, как бы человек не изъебывался, поверь.
>>103234117 >Самцы просто по факту лучше воюют блять, если общество пошлёт воевать самок то такая армия просрёт войну самцам. Это потому что самки не хотят умирать. При любом раскладе самка предпочтёт сдаться в плен и быть выебаной, чем идти в лобовую атаку. Самкам просто инстинкты не позволяют быть хорошими воинами. Потому что хорошие воины слишком часто умирают на войне.
>>103234282 Не, у меня уровень уже выше этого говна.
>>103234319 Смотря какой. В массе, да, такие же расходники. Кстати, представь мир, не страну, а мир, где вымерло 90% самцов. Самки позволят тебе плодиться, но по уровню развития будет каменный век. Самки не смогут восстановить цивилизацию, а самцов слишком мало, чтобы они делали что-то кроме ебли.
>>103234374 Лол. Я ТНН. Детей не планирую. За стенкой сосед, у него жена блядь и 2 личинки. У его сестры 1 наркоман и ещё 2 растут. У сестры его жены тоже 2 личинки. Потому что бабло давали за них. По уму, вся свора просто идиоты. В таком ёбаном мире плодится лишь быдло и алкаши. А всё потому, что я понимаю идиотизм о продолжении. Я это я. Дети это не я. Не нужны.
>>103234374 Больше всех детей оставит тот, кто лучше приспособлен к выживанию. В ситуации с войной это будет тот, чей инстинкт размножения сильнее, чем инстинкт самоуничтожения.
>>103234483 >Больше всех детей оставит тот, кто лучше приспособлен к выживанию И опять лол. А он вот разумный и не хочет детей. Всё, соснули. А быдло будет плодить нищету, потому что тугосеря часть культа.
>>103234439 >Не, у меня уровень уже выше этого говна Ну просто в твоём кругу общения (это несколько десятков человек) ещё не всё так плохо и потому популяция не давит на тебя, пытаясь пробудить твой инстинкт смерти. Вот когда вокруг настанет пиздец и все вдруг начнут требовать от тебя быть "настоящим мужчиной", тогда вспомни мои слова.
>>103234483 >В ситуации с войной это будет тот, чей инстинкт размножения сильнее, чем инстинкт самоуничтожения. И опять верно(даже если забыть что вся эта байда про самоуничтожение хуйня лютая) Тот кто выжил и оставил потомство тот более приспособлен.
>>103234517 При чём тут разумный то? Разум и хотения это разные вещи. Хотение -- это как раз часть инстинкта. Если он не хочет ебать баб, значит его инстинкт размножения либо подавлен либо он сам по себе вырожденец. Скорее всего инстинкт подавлен. Возможно с детства.
>>103234559 Почему это? 5 элемент смотрел? Когда она в конце понимает, что это говно нахуй не нужно. Не те люди, не то общество, ради которых стоит умирать или лишаться чего-либо. Видя от общества/страны только дерьмо, любить его, это мазохизм.
>>103234562 >начнут требовать Посылаю их нахуй. И идут как миленькие со своими семья, личинка и прочее говно.
>>103234622 Потому что обрекать личинку на жизнь в параше, слишком жестоко. Просто читай треды тут и смотри как многие "любят" родоков. Всё это нытьё, что их в 25 лет мамка гонит работать итд. Вырастить человека довольно сложно и нужны ресурсы. Не говоря про годную тню, что уже стало фантастикой.
>>103234605 Не. Ну ты просто объясни мнетогда, что заставляет людей идти на смерть. Верность идеалам Родины? А тебе не кажется, что верность идеалам -- это всего лишь маняоправдания человека, не способного сопротивляться бессмысленному влечению к смерти?
>>103234731 Животное и пропаганда. Разумные не рискуют понапрасну. Чем более ты обезьяна, тем более быдло и хочешь воевать, тяночку, глупый риск ради дозы адреналина.
>>103234679 >Посылаю их нахуй. И идут как миленькие со своими семья, личинка и прочее говно. Ты рано делаешь выводы. На твоей территории пиздец ещё не настал. Соответственно давление на тебя ещё не достаточно сильное.
>>103234779 Ну. И это ли не инстинкты? Конечно инстинкты. Эти инстинкты приводят к гибели человеческих особей? -- Да, по факту люди гибнут. Так о чём мы спорим?
>>103234789 Не настанет. Да и кому давить то? Родоки уже поняли что бесполезно. А мнения других для меня пустое место, если не обоснованы. А тут они в пролете, потому что кроме стакана воды и так принято ничего нет.
>>103234844 Я там вклинился. 103234605 - другой анон.
>>103234679 >бессмысленному влечению к смерти >бессмысленному >влечению к смерти Было бы проще и экономнее всем порезать себе вены чем идти куда то воевать. Люди не идут на смерть чё за хуйню ты говоришь. Люди идут убивать. Боец не выходит на ринг получить пизды, а выходит её раздавать. Воюют с теми кто отличается, почему те кто отличается враги я думаю не стоит объяснять.
>>103234844 Самоубийство ради блага популяции было бы взятся за руки и помереть, а не тратить и без того скудные ресурсы популяции на войну с кем то. О причинно следственной связи. До 20го века каждая 6я женщина помирала во время родов по твоей логике желание родить это стремление к смерти. У тебя какой то фрейдизм, только вместо сексуального фатальное.
>>103232754 >>103232754 Гены набор широких инструкций. Проявление зависит от условий окружающей среды. > Это ведь от моего развития зависит буду ли врачом или художником. Это зависит от условий окружающей среды. Гены могут определить склонность к подобной деятельности, но если условия не сложатся то они и не проявятся. У тебя могут быть "гены суперспринетра олипийского чемпиона по бегу", но если тебе в 6 лет отрубит ноги то как то похуй, смысл я думаю понятен.
>>103234978 Люди идут убивать, но при этом сами готовы умереть. Суть то инстинкта не в том, что вот ты конкретно должен умереть. Суть инстинкта в том, что должен умереть хоть кто-нибудь. Чтобы просто людей стало меньше. А вены не вскрывают лишь потому, что помимо инстинкта смерти есть ещё и противоречащий ему инстинкт сохранения своих генов. Тебе, как носителю своего генома твой собственный инстинкт не позволит убить себя просто так. Ты сначала должен попытаться убить другого. При том желательно убить представителя другой популяции, так как особь из другой популяции несёт чужие гены. Т.е. ты и особъ из другой популяции повинуясь инстинкту должны идти к месту смерти и бороться там, пока кто-то не умрёт. А победитель, выполнив задачу по регуляции численности, получает право дальше распространять свой геном.
>>103234978 >До 20го века каждая 6я женщина помирала во время родов по твоей логике желание родить это стремление к смерти. Нет конечно. Стремление к смерти -- это не единственный механизм регуляции числености. Есть и другие механизмы, заложенные в нас природой. Например среди обезюян бонобо высокий процент бесплодных самок. Он просто не могут забеременеть. Так вот природа наградила их встроенным механизмом контрацепции. Старение человека и его смерть от старости -- тоже один из природных механизмов регуляции численности. Смерть при родах -- этот тоже такой же механизм регуляции. При родах умирали те женщины, которые не имели достаточно ресурсов для развития и поддержания в тонусе собственного организма. Т.е. с эволюционой точки зрения умирали наименее приспособленные. Это не регуляция численности, а механизм естественного отбора носителей наиболее удачных генов. На самом деле механизм регуляции численности и механизм отбора очень тесно переплетены.
>>103235436 Согласен. Меня напрягало то что я усмотрел такую схему Ресурсов мало>Инстинкт самосохранения гаснет>Надо просто умирать во имя общего блага. Вместо Ресурсов мало>надо ради того что бы выжить рискнуть жизнью и отнять ресурсы у кого то еще, ради чисто своих эгоистичных интересов, а регуляция численности чисто механическое следствие этого о которой особь и не подозревает. тут >>103235436 я я думаю всё верно.
>>103235747 >особь и не подозревает Да. В этом суть инстинкта. Так же с инстинктом размножения. Люди не хотят производить личинок. Люди хотят просто ебаться. Вообще важнейшее качество инстинктов в том, что люди их не осознают. Человеческий мозг устроен так, что человек не способен осознавать суть действий, выполняемых инстинктивно. Это защитный природный механизм, чтобы человек не мог сопротивляться.
1) ИИ не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2) ИИ должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Итак, собственно, вопрос. Возможен ли вариант, при котором ИИ соблюдет эти законы, но сможет нанести человеку вред?