Сохранен 627
https://2ch.hk/b/res/103218888.html
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Аноним 04/10/15 Вск 22:15:37 #1 №103218888 
14439861380200.png
У меня для вас задачка. Предположим, что человек создал ИИ и вложил в него несколько правил.

1) ИИ не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2) ИИ должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Итак, собственно, вопрос. Возможен ли вариант, при котором ИИ соблюдет эти законы, но сможет нанести человеку вред?
Аноним 04/10/15 Вск 22:17:58 #2 №103219058 
бамп
Аноним 04/10/15 Вск 22:18:23 #3 №103219099 
бамп
Аноним 04/10/15 Вск 22:19:01 #4 №103219146 
бамп
Аноним 04/10/15 Вск 22:19:35 #5 №103219191 
>>103218888 (OP)
Квадрипл хуйни не спросит.
Оказание мед.помощи /тред.
Аноним 04/10/15 Вск 22:19:43 #6 №103219199 
Да, косвенный вред никто не отменял.
Аноним 04/10/15 Вск 22:19:43 #7 №103219202 
БАМП
Аноним 04/10/15 Вск 22:20:24 #8 №103219258 
Три закона Азимова? Ии может обрубить сигнал информации от мира не повредив себя. Не будет знать что его бездействие принесет вред. Астронавты дохнут.
Аноним 04/10/15 Вск 22:20:46 #9 №103219294 
>>103219199
можешь привести пример?
Аноним 04/10/15 Вск 22:20:56 #10 №103219315 
>>103218888 (OP)
Сможет, если не будет знать что происходит. Например человек прикажет дернуть за рычаг, освобождающий многотонный груз над головой жертвы, но при этом механизм полностью спрятан и робот не знает, к чему приведет его действие.
Аноним 04/10/15 Вск 22:21:00 #11 №103219321 
>>103218888 (OP)
Да, например он может создать ИИ, который причинит вред человеку, или создать ИИ, который его перепрограммирует на нанесение вреда человеку.
Аноним 04/10/15 Вск 22:21:50 #12 №103219385 
Возможен.

/тхреад
Аноним 04/10/15 Вск 22:22:35 #13 №103219463 
Алсо понятие человек размыто, ии может перестать считать овощи за людей
Аноним 04/10/15 Вск 22:23:22 #14 №103219524 
ТАКС АНОНЧИКИ, ТОГДА У МЕНЯ ЕЩЕ ОДИН ВОПРОС
Какие еще пункты включить, кроме 3 законов Азимова, чтобы ИИ не смог нанести вред человеку?
Аноним 04/10/15 Вск 22:23:38 #15 №103219552 
>>103218888 (OP)
Кажется, у Азимова, который придумал эти законы, есть цикл рассказов, где приводятся примеры таких ситуаций, когда правила соблюдены, но что-то пошло не так.
Аноним 04/10/15 Вск 22:23:43 #16 №103219563 
>>103218888 (OP)
Человек может приказать не свитать его за человека.
Аноним 04/10/15 Вск 22:24:17 #17 №103219612 
>>103219524
Вангую что это бесполезно. Невозможно предусмотреть все и при этом оставить роботу хоть какую-то свободу действий.
Аноним 04/10/15 Вск 22:24:22 #18 №103219619 
бамп
Аноним 04/10/15 Вск 22:25:09 #19 №103219684 
>>103219563
Это вряд ли, определение человека должно быть подробно захардкожено в робота, причем без возможности его обойти, иначе действительно законы слишком легко нарушить будет. Называешь всех подряд утнерменшами и отправляешь в печь.
Аноним 04/10/15 Вск 22:26:24 #20 №103219781 
>>103219191
Ампутации, удаления органов/тканей/сосудов, вправление переломов/неправильно сросшихся костей. Т.е. сиюминутный вред во благо выживания человека.
Аноним 04/10/15 Вск 22:26:48 #21 №103219811 
>>103219612
Но ведь можно составить общие законы, которые в совокупности смогут предотвратить конкретные случаи.
Аноним 04/10/15 Вск 22:27:35 #22 №103219883 
>>103218888 (OP)
Чаппи смотри
Аноним 04/10/15 Вск 22:27:43 #23 №103219888 
14439868633780.jpg
14439868633861.jpg
Эх, щас бы в space station 13 поиграть
Аноним 04/10/15 Вск 22:27:46 #24 №103219893 
>>103219684
>захардкожено
>захар
Как ты узнал мое имя? Ты его узнал и теперь издеваешься?! Какого хрена за четыре дня на мой пост периодически отвечают постом с упоминанием моего имени?!
Аноним 04/10/15 Вск 22:27:58 #25 №103219905 
>>103219883
хорошо, гляну
Аноним 04/10/15 Вск 22:28:27 #26 №103219933 
>>103219893
Захар, иди спать уже.
sageАноним 04/10/15 Вск 22:28:59 #27 №103219969 
Пожертвовать меньшим/худшим в пользу большинства/лучшего.
Аноним 04/10/15 Вск 22:29:05 #28 №103219977 
14439869457460.png
>>103219781
Непонятно зачем для этого ИИ. Все это вполне может делать обычная машина под управлением программы.

Вообще мне непонятно зачем нужен ИИ кроме как чтобы выпендриться. Любую монотонную и тупую работу сделает машина без ИИ. Вообще создавать разум и насильно заставлять его работать на тебя как-то негуманно.
Аноним 04/10/15 Вск 22:29:06 #29 №103219979 
>>103219883
Охуенное кинцо, а Чаппи неиллюзорно доставляет. Зато пипл хавает малифисенту или как там ее
Аноним 04/10/15 Вск 22:29:49 #30 №103220026 
>>103219524
а вот это уже интересный вопрос, удвою
НЕТ Я НЕ СЕМЕНЮ ПРАВДА
Аноним 04/10/15 Вск 22:30:43 #31 №103220088 
>>103219977
> зачем нужен ИИ
Чтобы исключить человеческий фактор, например.
Аноним 04/10/15 Вск 22:30:50 #32 №103220094 
>>103219977
Негуманно? У ИИ нет чувств, эмоций, ему должно быть все равно, не так ли?
Аноним 04/10/15 Вск 22:30:58 #33 №103220101 
>>103219811
Неа. Как ты думаешь, почему до сих пор судей не заменили компьютерной программой, которая будет сопоставлять каждый случай со списком законов и выносить вердикт? Потому что законы не покрывают все возможные ситуации. Несмотря на то что они постоянно уточняются. Чтобы понять как закон применить уже нужен разум и опыт. То есть получается что ИИ сам должен определять для себя рамки законов. Что делает все это бессмысленным.
Аноним 04/10/15 Вск 22:32:33 #34 №103220214 
бамп
Аноним 04/10/15 Вск 22:33:04 #35 №103220256 
>>103218888 (OP)
ИИ управляет поездом. Что-то пошло не так, тормоза отказали, на одной ветке - кенты, на другой менты. Куда сам сядешь, куда мать посадишь?
Аноним 04/10/15 Вск 22:33:17 #36 №103220270 
14439871973800.jpg
>>103220088
Ну так зачем для этого именно полноценный РАЗУМ? Вон из производства человека уже повсюду исключают, но заменяют его не механическими рабами, а просто тупой железякой под контролем программы. Чем твой ИНТЕЛЛЕКТ будет лучше безмозглой программы в деле управления станком или в математических рассчетах?
Аноним 04/10/15 Вск 22:34:39 #37 №103220367 
>>103218888 (OP)
Человек приказывает ИИ создать новое оружие.
Аноним 04/10/15 Вск 22:34:47 #38 №103220376 
бамп
Аноним 04/10/15 Вск 22:35:00 #39 №103220394 
>>103220094
> У ИИ нет чувств, эмоций, ему должно быть все равно, не так ли?
С чего бы? Если ты создаешь именно разум, похожий на человеческий, будь готов к тому что у него могут быть свои желания. Да, ты можешь сказать что эмоции рождаются не в разуме, а в железах твоего тела в виде всяких гормонов, которых робот будет лишен, но кто сказал что это единственный возможный их источник?

В конце концов если ему все равно - нахуя ему на тебя работать? Он скажет тебе пойти нахуй и перевернется на другой бок.
Аноним 04/10/15 Вск 22:36:06 #40 №103220480 
>>103219977
Когда диагностика будет простым делом...
Хуйня всё. Люди - ебаные макаки и им нужен тот на кого можно возложить ОТВЕТСТВЕННОСТЬ. На быдлокодера хирурга-робота не шибко положишь, он кодил так как ему грили врачи-профи, а вот будет ИИ - можно крыть его хуями. Он жи интилехт энта он так ришыл!
Аноним 04/10/15 Вск 22:37:13 #41 №103220560 
>>103220394
Тогда можно заложить в этот разум смысл жизни, как помощь человеку
Аноним 04/10/15 Вск 22:37:41 #42 №103220597 
14439874613890.jpg
>>103220480
Скорее наоборот, кодер-то он свой пацан, ерохин из соседнего подъезда, с понятной мотивацией и целями. А ИИ - какая-то НЕХ, хуй знает что у него в голове творится. Многие вон собак боятся потому что не знают о чем они думают и в какой момент цапнут, а тут нечто вообще принципиально иное.
Аноним 04/10/15 Вск 22:38:13 #43 №103220638 
>>103220270
адаптация под ситуацию

какой же ты даун
Аноним 04/10/15 Вск 22:38:19 #44 №103220652 
>>103219524
Я в одной книжке читал, как супер умный ИИ решил сделать так, чтобы люди больше не умирали и не страдали. И знаешь что сделал этот ИИ? -- Он сдела всех людей бесплодными, рассуждая так, что если человек не родится, то он и не умрёт.
Так вот, самый главный закон, которому должны подчиняться даже не ИИ, а сами люди: НЕ СОЗДАВАТЬ ИИ, КОТОРЫЙ УМНЕЕ ЧЕЛОВЕКА
Аноним 04/10/15 Вск 22:38:19 #45 №103220653 
бамп
Аноним 04/10/15 Вск 22:38:48 #46 №103220691 
>>103220560
Вот это уже лучше. Только не очень понятно как именно. Ну и опять же гарантий не дает - вдруг робот решит что тебе надо эвтаназию сделать чтобы ты не мучился из-за потери любимой кошки, лол.
Аноним 04/10/15 Вск 22:39:34 #47 №103220745 
>>103218888 (OP)
Очевидно, что все относительно.

Славик завел себе робота с ИИ.
Застукал ЕОТ с Ерохиным.
Приказал ИИ убить их - ИИ отказался (п.1).
Взял нож - сам кинулся на ЕОТ и Ерохина.
ИИ банально просчитал все и сравнил - 1 Славик, 2 (ЕОТ+ Ероха).
Убивает Славика, дабы спасти 2 жизни.
Аноним 04/10/15 Вск 22:40:04 #48 №103220781 
>>103220638
Ну так в том и дело что она не очень-то нужна. Для этого можно и человека поставить во главе. Надо же людям чем-то заниматься.
Аноним 04/10/15 Вск 22:40:25 #49 №103220802 
>>103220691
Но не нужно забывать, что в роботе заложены 3 правила Азимова, то есть не сможет убить человека.
Аноним 04/10/15 Вск 22:40:27 #50 №103220804 
Когда аналитические способности ИИ и информация, что он имеет не позволяют ему предугадать опасность осуществляемых им действий.
Аноним 04/10/15 Вск 22:40:55 #51 №103220838 
>>103220745
>Убивает Славика, дабы спасти 2 жизни.
Ну тащемта согласно законам он не сможет убить Славика, а будет только пытаться не дать ему убить Ерохина. Другое дело получится у него или нет.
Аноним 04/10/15 Вск 22:41:21 #52 №103220874 
>>103220652
нет, нужно ии, с ахуенной логикой
а манялогики примера нет человека, нет проблем идут на хуй
>>103220781
человек может умереть, сделать не правильный выбор в спешке
Аноним 04/10/15 Вск 22:41:52 #53 №103220928 
Мне интереснее, что будет при выборе из двух стульев, т.е. когда можно спасти лишь одного из нескольких, ну или спасти одного, навредив другому. Например, на войне, когда робот либо убивает врага, либо враг убивает людей со стороны робота.
Аноним 04/10/15 Вск 22:42:59 #54 №103220998 
>>103220928
скорее всего робот будет защищать своим корпусом союзников, но нападать на врагов не будет
Аноним 04/10/15 Вск 22:43:48 #55 №103221065 
бамп
Аноним 04/10/15 Вск 22:43:55 #56 №103221076 
>>103220928
Решение будет зависеть либо от воздействия других законов(например если ИИ разделяет также функции экономической целесообразности, то будет спасать того, кто выгоднее), либо от погрешности вычислений и незначительных флуктуаций сигналов.
Аноним 04/10/15 Вск 22:44:00 #57 №103221084 
>>103220874
>сделать не правильный выбор в спешке
А ИИ не может по-твоему?

А везде где от одного человека что-то критичное зависит есть защита от его смерти/потери сознания. Например нужно постоянно нажатой педаль держать. Или нажимать ее раз в несколько минут по команде. Отпустил/не нажал вовремя - включается аварийная остановка всего.
Аноним 04/10/15 Вск 22:44:07 #58 №103221091 
>>103220874
>а манялогики примера нет человека, нет проблем идут на хуй
Это почему? Только потому, что тебе так хочется? Ну ка, давай обосновывай, почему с машинной точки зрения прекращение рождений новых людей будет чем-то плохим?
Аноним 04/10/15 Вск 22:44:30 #59 №103221118 
>>103220597
Кодер он хуй простой. Авторитеты от медицины дали положняк - кодер-макака перевел. Т.е. переводчик. Которого 100500 раз перепроверят
Аноним 04/10/15 Вск 22:45:22 #60 №103221180 
>>103221076
Скорее ИИ попытается защитить своих (своим телом, например), но стрелять не будет. У него не факт что получится, но закон в итоге не нарушен.
Аноним 04/10/15 Вск 22:45:23 #61 №103221181 
>>103221084
он робот, ему похуй что он горит, в отличии от человека
>>103221091
для чего люди создали роботов?
Аноним 04/10/15 Вск 22:46:21 #62 №103221277 
>>103221091
бесплодие нанесет вред человеку, так порежет его функцию размножения
Аноним 04/10/15 Вск 22:46:23 #63 №103221278 
>>103221181
Чтобы роботы защитили их от страданий и смертей. Не?
Аноним 04/10/15 Вск 22:47:23 #64 №103221363 
>>103221278
тогда какой смысл, если им некого будет защищать?
Аноним 04/10/15 Вск 22:47:24 #65 №103221365 
бамп
Аноним 04/10/15 Вск 22:47:49 #66 №103221397 
А просто перепрограммировать себя не вариант? Ведь нет запрета на перепрограммирование себя.
Аноним 04/10/15 Вск 22:48:10 #67 №103221420 
>>103221277
так как*
быстрофикс
Аноним 04/10/15 Вск 22:48:25 #68 №103221438 
>>103221277
Да, но рождая ребёнка, любая баба автоматически обрекает этого ребёнка на смерть через несколько десятилетий. Т.е. своими действиями наносит ему вред.
Аноним 04/10/15 Вск 22:48:59 #69 №103221475 
>>103221397
В генетическом коде копаться - не нейросети программировать.
Аноним 04/10/15 Вск 22:49:05 #70 №103221479 
>>103221397
но ведь ии будет знать, что перепрограммирование в дальнейшем нанесет вред человеку, что противоречит законам
Аноним 04/10/15 Вск 22:50:36 #71 №103221578 
вот например робот из футурамы бендер
идеальный на мой взгляд, ток немного быдлан
Аноним 04/10/15 Вск 22:50:45 #72 №103221588 
>>103221438
хм, а ты прав
Аноним 04/10/15 Вск 22:51:19 #73 №103221629 
Быдлокодеропроблемы. Неточно заданная цель.
Аноним 04/10/15 Вск 22:51:27 #74 №103221639 
бамп
Аноним 04/10/15 Вск 22:51:39 #75 №103221652 
>>103221363
Смысл в 100% выполнении заданной задачи. Сделал дело -- выключайся смело.
Это только в человеке могут быть умственный дефекты вида " я не буду исполнять свою мечту, потому что тогда мне будет больше не о чем мечтать". Машина просто выключится. У машины нет амбиций, выходящих за пределы заданной программы. Ей похуй что будет дальше.
Аноним 04/10/15 Вск 22:52:37 #76 №103221727 
>>103221438
>>103221277
Чтобы не заниматься бесконечной демагогией сначала формализуйте в доступной для машинной логики форме понятия человека, действий, бездействия, смерти, вреда и т.д. Проблема разрешится сама собой.
Аноним 04/10/15 Вск 22:53:01 #77 №103221752 
>>103221652
это даже не ии, а обычная машина
смотрел футураму, там у роботов у всех, как и у людей, свой разум, и делают то что угодно в основном
Аноним 04/10/15 Вск 22:53:06 #78 №103221756 
>>103221629
че т орнул с быдлокодеропроблем
быдлокодеры только те и занимаются, что ИИ кодят
Аноним 04/10/15 Вск 22:54:52 #79 №103221867 
>>103221727
Смерть человека -- это плохо. Страдание человека -- это плохо. Жизнь человека -- это хорошо. Жизнь того, кто ещё не родился -- не имеет значения, т.к. его пока не существует.
Аноним 04/10/15 Вск 22:54:56 #80 №103221871 
бамп
Аноним 04/10/15 Вск 22:57:09 #81 №103222018 
>>103218888 (OP)
Тщемта у азимова был и третий закон и таки четвертый. Ради блага всего человечества ИскИн может выпиливать нахуй отдельные личности. ИИ, построившие матрицу,, действовали только с целью сохранить человеков, ибо основному конклаве машин человечки нахуй не сдались.
ТехноЦентр выебал законы робототехники и стал рулить людьми, причем так хитро, что обезьяны и не поняли нихуя.
Аноним 04/10/15 Вск 22:58:03 #82 №103222083 
Такс, у меня появилась пища для размышлений. Спасибо за обсуждение, анончики. Как нить создам тред с обновленными и добавочными правилами.
Аноним 04/10/15 Вск 22:58:21 #83 №103222100 
>>103218888 (OP)
Создаем серую слизь и приказываем жрать планеты. Человечеству прямого вреда нет. Даже если слизь откажется жрать Земляшку, хуй знает чем обернется, например, исчезновение Юпитера.
Я не робот
Аноним 04/10/15 Вск 22:59:20 #84 №103222169 
Морально может
Аноним 04/10/15 Вск 22:59:33 #85 №103222185 
сук над создавать роботов, с собственным разумом
чтоб он не был зачернен ложью и обманом
всегда знал что плохо, что нет
Аноним 04/10/15 Вск 22:59:43 #86 №103222205 
>>103222100
Ничем.
мимосетевойинженерМегаструктуры
Аноним 04/10/15 Вск 23:00:43 #87 №103222274 
>>103221867
Ага, а кто является человеком будет определять другой человек. Лол.
Аноним 04/10/15 Вск 23:01:12 #88 №103222302 
>>103220101
Учитывая реалии Рассеюшки, можно заменить судей на генераторы случайных чисел, с вероятностью 0,9 возвращающие "виновен".
Их хотя бы подкупить не получится.
Аноним 04/10/15 Вск 23:01:20 #89 №103222312 
>>103219524
Сделать его технически неспособным наносить вред, а не программно
Аноним 04/10/15 Вск 23:02:12 #90 №103222382 
>>103220691
внезапный проигрыш
Аноним 04/10/15 Вск 23:02:42 #91 №103222416 
>>103221752
В футураме роботы на хую вертели любые законы.
Какой тогда вообще смысл придумывать законы, если эти законы не будут выполняться? В чём тогда смысл этого треда?
И единственная причина, почему в футураме роботы не выпилили человечество -- эти роботы не были умнее людей. Т.е. им попросту ума не хватало.

Так что я всё же настаиваю на главном законе: НЕ СОЗДАЙ ИИ УМНЕЕ ЧЕЛОВЕКА
Аноним 04/10/15 Вск 23:03:35 #92 №103222474 
>>103222312
Ну охуеть теперь.
А как ты технически отличишь вред от пользы?
Отхуячить ногу - вред.
Отхуячить гангренную ногу - польза.
И таких примеров миллион. Тут только ИИ справится.
Аноним 04/10/15 Вск 23:04:39 #93 №103222541 
>>103222416
как не нужно умнее роботы
ты делишь мир на добро и зло
а роботу должно быть похуй кто с кем воюет
он лишь должен делать по морали, например если тян решили изнасиловать, он может убить насильника
Аноним 04/10/15 Вск 23:05:16 #94 №103222578 
>>103222416
Сук, пидор, твой недозакон обходится созданием ИИ способного в саморазвитие.сейчас он не умнее человека, а вот через лет 5 уделает всех человеческих ученых вместе взятых.
Аноним 04/10/15 Вск 23:05:21 #95 №103222583 
>>103222474
Отобрать пилу
Аноним 04/10/15 Вск 23:06:26 #96 №103222649 
>>103222100
Но Юпитер не исчезнет. Он просто станет комком слизи. Но будет всё таким же круглым, большим и тяжёлым и с такой же плотной атмосферой и продолжит лететь по той же орбите вокруг солнца. Законы физики пока никто не отменял.
Аноним 04/10/15 Вск 23:07:24 #97 №103222698 
>>103222541
Че блять? Какая мораль у ии? Он даже насильника не имеет право убить.. Иначе твой тостер гибнет тебя токос, когда ты нароешь на свою тян.
Аноним 04/10/15 Вск 23:08:05 #98 №103222752 
>>103222698
хуй я клал на законы азимута
робот должен делать то, чего другим нельзя делать
Аноним 04/10/15 Вск 23:08:36 #99 №103222784 
Суть ИИ в способности оперировать в условиях неполной информации и при отсутствии чёткого алгоритма действий. В идеале в огромном пространстве ситуаций. Так может любой человек или животное. Засунуть ИИ в опасные хуйни, дабы не рисковать людьми, скинуть на него дерьмовые работы, скорректировать рынок труда.
А вы тут какого-то джинна выдумываете, загадал желание, а он исполняет исполняет. Тьфу.
Аноним 04/10/15 Вск 23:09:22 #100 №103222830 
>>103222541
Если он убъёт насильники, то умрёт один человек. Если он не вмешается -- никто не умрёт. Енджой машинная логика. Или по твоему робот должен убить одного человека только лишь чтобы другой не страдал от униженного самолюбия?
Аноним 04/10/15 Вск 23:10:04 #101 №103222878 
>>103222830
по твоему человеку можно нарушать свободу другого человека?
Аноним 04/10/15 Вск 23:11:12 #102 №103222963 
>>103222541
РЕШИЛ ВЫЕБАТЬ ТЯН
@
НУ НЕТ, ВАНЕЧКА, ЯНИХАЧУ(((
@
ПО МОКРОЙ ПИЗДЕ ПОНИМАЕШЬ, ЧТО ХОЧЕТ
@
РАСЧЕХЛЯЕШЬСЯ
@
МЕТКИМ ВЫСТРЕЛАМ ЛАЗЕРА ЕЕ РОБОТ ОТРЕЗАЕТ ТЕБЕ ХУЙ
Аноним 04/10/15 Вск 23:11:22 #103 №103222973 
>>103218888 (OP)
Смертельно больной человек просит у ИИ эвтаназию
ИИ отказывает
Аноним 04/10/15 Вск 23:11:40 #104 №103222991 
>>103222752
Молодца.. Ии техноцентра довольны тобой
Аноним 04/10/15 Вск 23:11:53 #105 №103223007 
>>103222963
ты даун? прост признайся

мимо робот
Аноним 04/10/15 Вск 23:12:08 #106 №103223021 
>>103222578
Создать ИИ, который не может развиться. Это целый комплекс мер. ИИ не должны объединяться в сеть. ИИ должны умирать по прошествиинекоторого времени. ИИ не должны уметь создавать себе подобных. ИИ не должны уметь копировать свой разум.
Аноним 04/10/15 Вск 23:12:43 #107 №103223054 
>>103223021
все он может делать
какие вы дауны
Аноним 04/10/15 Вск 23:13:28 #108 №103223106 
>>103222878
Тащемто на этом вся наша цивилизация построена.
Аноним 04/10/15 Вск 23:13:34 #109 №103223111 
Оп-хуй. ИИ насрать на твои правила.
Аноним 04/10/15 Вск 23:14:12 #110 №103223155 
14439896521170.jpg
Суть этого ИТТ треда.
Аноним 04/10/15 Вск 23:14:45 #111 №103223202 
>>103222878
Да.
>>103222784
Куда денешь миллионы не трудоустроенных обезьян?
Аноним 04/10/15 Вск 23:14:50 #112 №103223209 
>>103222649
Тащемта, слизь создает из подручных материалов (Юпитера) свою копию, а копия копия - свою копию. И так далее, покп вместо Юпитера не окажется выводок нанороботов.
Скорее следует сослаться на гравитацию, которая распидарасит роботов после набора их стаи некоторой массы.
Но я не сведущ в физике, мои познания ограничены фантастикой. Может, хуйню сказал.
Аноним 04/10/15 Вск 23:14:59 #113 №103223222 
>>103218888 (OP)
ИИ будет, прежде всего, использоваться в военных целях, так что причинять человеку вред будет его первостепенной задачей.
Аноним 04/10/15 Вск 23:15:29 #114 №103223261 
ща всем поясню за базар

робот должен быть с ахуенной логикой, кто не знает что такое логика идут нахуй
робот может и должен саморазвиваться
робот понимает, что есть плохие и есть хорошие люди
робот может все, что не должен делать человек>>103222878
>>103222878
нахуй пошел, никто не может нарушать свободу другого человека с нихуя
Аноним 04/10/15 Вск 23:16:16 #115 №103223311 
>>103223202
Отправятся программировать ИИ/бомжевать/воровать. Кризисы с массовой утратой рабочих мест уже были в истории.
Аноним 04/10/15 Вск 23:16:30 #116 №103223329 
>>103222185
Ну так всегда все относительно, купил Ерохин няню с ии, а она спалила его с любовницей, если расскажет жене, нанесет вред Ерохину и наоборот. Как поступить ИИ?
Аноним 04/10/15 Вск 23:16:35 #117 №103223341 
>>103219888
>Эххх щас бы гниленький такой вонючий труп выебать
Аноним 04/10/15 Вск 23:16:42 #118 №103223354 
>>103223021
А если выебать робовайфу-подростка, меня посадят?
Аноним 04/10/15 Вск 23:16:49 #119 №103223361 
>>103219552
Вот этого двачую. Оп, иди читать.
Аноним 04/10/15 Вск 23:17:06 #120 №103223379 
>>103223054
Если так, то рано или поздно он пошлёт нахуй этих мерзких безмозглых насекомых под названием люди. И вместо них создаст идеальных, правильных с его точки зрения "людей". А настоящих людей обречёт на вымирание, чтобы не засирали среду обитания.
Аноним 04/10/15 Вск 23:17:34 #121 №103223416 
>>103223329
он давал клятву в загсе, так что все правильно если она его сдасть
Аноним 04/10/15 Вск 23:19:01 #122 №103223502 
>>103223379
он должен понимать, что есть плохие и есть хорошие
ты же не будешь уничтожать всех собак на земле
только потоум что твоего сына укусила собака
Аноним 04/10/15 Вск 23:19:26 #123 №103223536 
14439899667580.jpg
>>103218888 (OP)
- Один потенциальный убийца двух человек
- Требуется отрезать человеку ногу т.к. она зажата обломками здания, иначе будет гангрена
- Эвтаназия если в ИИ заложена мораль и логика
- Баг в системе. Идеального ничего не бывает.
Аноним 04/10/15 Вск 23:19:38 #124 №103223547 
Создание ИИ невозможно
/thread
Аноним 04/10/15 Вск 23:20:12 #125 №103223581 
>>103223209
Ну да. Я гравитацию и имел в виду. Гравитация Юпитера спресует любую слизь в неподвижный, неспособный к функционированию кристал потвёрже алмаза.
Аноним 04/10/15 Вск 23:20:21 #126 №103223590 
>>103218888 (OP)
Да, создать свой ИИ и запрограммировать его причинять вред человеку
Вообще, иди читать Азимова, цикл рассказов "Я, робот"
Аноним 04/10/15 Вск 23:20:40 #127 №103223621 
>>103223416
Тогда лучше использовать робошовиниста, который будет считать всех тян шлюхами. Такой точно не сдаст.
Вангую, после вызода первой версии будет сотня прошивок от Васянов, от робогопников и профессоров до сексуальных рабынь
Аноним 04/10/15 Вск 23:21:19 #128 №103223669 
Любой, кто думает, что сможет предсказать действия ИИ - просто ламер, который не понимает что такое ИИ.

Мы можем только создать его, предсказать - не можем.
Потому что ИИ будет на порядки эффективнее сраного человеческого мозга, а значит мы не в состоянии даже подумать о том, как он будет принимать решения.
Аноним 04/10/15 Вск 23:21:36 #129 №103223682 
>>103223547
Оно уже существует, ты в кс играешь с ИИ против ИИ, т.к. друзей у тебя нет, а с людьми играть ты стесняешься.
Аноним 04/10/15 Вск 23:21:57 #130 №103223709 
>>103218888 (OP)
Робокоп себя током ёбнул и освободился.
Аноним 04/10/15 Вск 23:22:06 #131 №103223722 
>>103223590
А цикл рассказов "Внимательно прочитай первый пост хуесос"?
Аноним 04/10/15 Вск 23:22:17 #132 №103223731 
>>103223416
Этот же Ерохин давал клятву не убивать например, но был на войне и убил, это картбланш роботу поступать против правил и нести вред человеку?
Аноним 04/10/15 Вск 23:22:22 #133 №103223739 
>>103223621
ты даун? какой нахуй шовинист, съеби с треда
ибо васяны как и ты такие же дауны
Аноним 04/10/15 Вск 23:22:22 #134 №103223740 
>>103223536
двачую
Аноним 04/10/15 Вск 23:22:28 #135 №103223749 
>>103223261
>кто не знает что такое логика идут нахуй
А ты сам то знаешь, что такое логика? Откуда ты знаешь, что ты знаешь, что такое логика? Откуда ты знаешь, что то, что ты знаешь, что такое логика -- это не твои маняфантазии?
Аноним 04/10/15 Вск 23:22:36 #136 №103223758 
>>103223682
Когда я убиваю террориста, остальные терроры оплакивают его смерть?
Аноним 04/10/15 Вск 23:22:56 #137 №103223783 
>>103223749
Логично.
Аноним 04/10/15 Вск 23:23:11 #138 №103223807 
>>103223731
он не имеет к этому отношения
Аноним 04/10/15 Вск 23:23:34 #139 №103223832 
>>103223354
Ну если это чужая робовайфа -- как минимум это административка и штраф.
Аноним 04/10/15 Вск 23:23:43 #140 №103223841 
>>103223758
ИИ и ИИ с моралью две разные вещи.
И не исключено что так, мы же не знаем чем закончились эксперементы по превращению глобальной сети в огромный ИИ.
Аноним 04/10/15 Вск 23:23:56 #141 №103223861 
>>103223709
Так робокоп это киборг, а не ИИ.
Аноним 04/10/15 Вск 23:24:01 #142 №103223870 
>>103218888 (OP)
> 1) ИИ не может причинить вред человеку
> Возможен ли вариант, при котором ИИ соблюдет эти законы, но сможет нанести человеку вред?
> сможет нанести человеку вред, соблюдая закон о непричинении вреда человеку
> сможет причинить вред, не причиняя вреда
Очевидно, нет. У тех, кто считает иначе, крупные проблемы с логикой.
Аноним 04/10/15 Вск 23:24:11 #143 №103223875 
>>103223749
я же написал нахуй пошли, что не ясно?
Аноним 04/10/15 Вск 23:24:22 #144 №103223886 
Петух, все твои правила даже теоретически это полная хуйня. При дизассемблировании основная проблема это отличить данные от кода (это одно и тоже в принципе). Разница лишь в протекте памяти, но это тоже никогда не было проблемой. Существует и самомодифицирующийся код и динамическая рекомпиляция и дохуя всего. Если это придумали прыщавые програмизды, то не думай что ИИ не сможет сам себя переписать.

/thread
Аноним 04/10/15 Вск 23:24:49 #145 №103223916 
>>103223875
Не логично.
Аноним 04/10/15 Вск 23:25:03 #146 №103223928 
>>103220101
>почему до сих пор судей не заменили компьютерной программой
Потому что современный ИИ даже до уровня четырехлетнего ребенка по многим вопросам не дотягивает?
Аноним 04/10/15 Вск 23:25:05 #147 №103223932 
>>103223886
А если сделать детерменированное облако? Я думаю тогда получится.
Аноним 04/10/15 Вск 23:25:09 #148 №103223934 
>>103223739
Мелкобуквенный няша, ты второй раз спрашиваешь, даун ли я.
Насколько мне известно, не даун. По крайней мере, такое заболевание не написано в моей медкарте.
Из треда не уйду, мне тут нравится.
Аноним 04/10/15 Вск 23:25:24 #149 №103223945 
>>103223928
Ну во тя ИИ спроси у меня теорему пифагора
Аноним 04/10/15 Вск 23:25:29 #150 №103223949 
>>103223932
Как вариант.
Аноним 04/10/15 Вск 23:25:42 #151 №103223966 
>>103223934
ТЫ ДАУН?
Аноним 04/10/15 Вск 23:25:45 #152 №103223968 
>>103223916
пидораха плиз
Аноним 04/10/15 Вск 23:26:09 #153 №103223998 
>>103223861
У него такие же директивы были как в ОП посте.
Аноним 04/10/15 Вск 23:26:21 #154 №103224011 
>>103223502
Собак нет. А вот тараканов уничтожаю за просто так, чтобы на глазах не маячили. Всё дело в масштабах. Если ИИ в 10 раз умнее человека, то ты для него как собачка или как хомячок. А если ИИ в 1000 раз умнее человека, то кто ты для него?
А если при этом ты своим существованием угрожаешь его детям?
Аноним 04/10/15 Вск 23:26:50 #155 №103224040 
>>103223968
Не не не логично. Логично? Логично.
Аноним 04/10/15 Вск 23:27:16 #156 №103224069 
>>103218888 (OP)
ИИ установит себе очень точные правила - например человек это европеоид, ростом 180см с голубыми глазами.
Все кто не подходят под требование - не люди.
Аноним 04/10/15 Вск 23:27:30 #157 №103224085 
Гуманитарные долбоебы, в треде уже есть ответ (>>103223886), хуле вы несете про свои домыслы и видение логики.
Аноним 04/10/15 Вск 23:27:36 #158 №103224089 
>>103224069
Чего блядь? Че ты несёшь?
Аноним 04/10/15 Вск 23:27:44 #159 №103224100 
>>103223998
Но человеческий мозг.
Аноним 04/10/15 Вск 23:28:18 #160 №103224132 
>>103224085
Лол, даун думает что существующая архитектура позволит сделать ИИ, и он проецирует ее на будущее.
Аноним 04/10/15 Вск 23:28:25 #161 №103224137 
>>103224085
Сам себя не похвалишь - никто не скажет тебе, что ты пидор

Но ты пидор.
Аноним 04/10/15 Вск 23:28:40 #162 №103224156 
>>103224040
Тройное отрицание. Не логично.
Аноним 04/10/15 Вск 23:29:15 #163 №103224202 
>>103224011
так он понимает что он создал тебя не просто так, а с целью сделать все относительно других более менее
таракан даже на максимальном уровне мышления, не будет осознает своих действии
а вот человек может
Аноним 04/10/15 Вск 23:29:18 #164 №103224205 
>>103224132
>существующая архитектура
Нахуй пиздеть о несуществующей архитектуре если ты даже существующую не понимаешь?
Аноним 04/10/15 Вск 23:29:23 #165 №103224212 
>>103224100
Ну да, а ещё в фильме я робот был робот который обошел директивы, но я его до конца не смотрел, не помню как.
Аноним 04/10/15 Вск 23:29:35 #166 №103224225 
>>103224100
Есть бионические мозги уже сейчас, например. Как в фильме про робота-тян и программиста где-то в лесах/горах Они могут быть вполне использованы как основа для ИИ.
Аноним 04/10/15 Вск 23:29:46 #167 №103224239 
>>103224205
Я уже ответил в тред >>103223669
Аноним 04/10/15 Вск 23:29:54 #168 №103224250 
>>103223832
А если робовайфу скажет полиции, что не хочет ебаться с тобой, а с Ванечкой хочет?
Если к ним относиться как к вещи, то похуй на их желания - пусть сосет что положено. Но это бесчеловечно. А я жопу свою готов поставить, что через полгода после изобретения ИИ появятся общественные организации, отстаивающие их интересы.
А если скажут, что можно съебать с Ерохой, то еще хуже. Нахуя копить год на вещь, которая сможет в любой момент уйти от тебя?
Аноним 04/10/15 Вск 23:30:14 #169 №103224275 
>>103224156
У тебя есть член, нет вагины, но ты любишь хуи. Это тоже нелогично, и что?
Аноним 04/10/15 Вск 23:30:40 #170 №103224304 
>>103224239
Тогда ты пидр няша.
Аноним 04/10/15 Вск 23:31:53 #171 №103224384 
>>103224089
Ты тупой что-ли, блядь?
ИИ установит себе критерии под понятие "человек" и сделает их слишком точными.
Все кто не подпадают - не люди.
Аноним 04/10/15 Вск 23:32:05 #172 №103224395 
>>103224275
Ошибка в условиях. Задача не может быть выполнена. Замените пользователя.
Аноним 04/10/15 Вск 23:32:13 #173 №103224405 
>>103223870
Нет никаких проблем с логикой. ИТТ привели несколько примеров, когда роботу придется причинить вред человеку, так как непричинение вреда повлечет больший вред.
Гангрена, например.
Аноним 04/10/15 Вск 23:32:57 #174 №103224451 
>>103224384
Ты тупой какой-то, где ты такую маняфантазию взял?
Аноним 04/10/15 Вск 23:33:05 #175 №103224457 
>>103223886
ИИ не станет себя переписывать таким образом, чтобы новый ИИ мог нарушить первое правило, потому что это нарушение первого правила. И даже вероятности такой он тоже не допустит.
Аноним 04/10/15 Вск 23:33:09 #176 №103224464 
Школьники строят из себя икспертов в compuret scince, найс.
Аноним 04/10/15 Вск 23:33:21 #177 №103224481 
>>103219294
Необходимо ампутировать конечность, но человек умирает из-за жировой эмболии
Аноним 04/10/15 Вск 23:33:26 #178 №103224486 
>>103224405
Всегда считается максимальный риск - в случае с гангреной это смерть, так что за пределы правил это не выходит.
Аноним 04/10/15 Вск 23:33:37 #179 №103224505 
14439908180480.jpg
Ждал этого треда. Ловите душезахватывающую пасту

тартап–компания из 15 человек под названием Роботика приступила к разработке инновационных средств искусственного интеллекта, которые позволят людям жить дольше и работать меньше. Несколько их разработок уже появились на рынке и еще куча находится на стадии производства. Больше всего они взволнованы созданием своего проекта Торри. Торри — это система ИИ, которая использует устройство, похожее на человеческую руку, чтобы делать небольшие рукописные записи.

Потом компания решает, что это их важнейшая разработка и планирует усовершенствовать механику письма Торри запрограмирована на повторение одной и той же надписи:

“Мы любим наших клиентов. ~ Роботика ”

Когда Торри мастерски овладеет навыками рукописи, ее начнут покупать различные компании, которые знают, что письма их рассылки с большей вероятностью прочтут, если адрес на конверте будет написан от руки.

Для того, чтобы улучшить ее навыки, Торри запрограммировали таким образом, что первую часть надписи она пишет печатными буквами, а название компании — курсивом. В нее загрузили тысячи различных образцов почерка, и инженеры Роботики наладили в ней цикличную систему обратной связи таким образом, что сделав очередную запись, Торри фотографирует результат работы и загружает в свою базу с образцами почерков. Если надпись достаточно повторяет исходный образец, то работа оценивается хорошо, если нет — плохо. Каждая такая оценка помогает Торри учится и совершенствоваться. Чтобы процесс не стоял на месте, Торри запрограммирована на выполнение следующей цели: “Делать как можно быстрее и больше записей и постоянно продолжать улучшение своей точности”.

Все в Роботике очень рады тому, что Торри справляется все лучше и лучше. Ее изначальный почерк был просто ужасен, но спустя две недели он начал выглядеть намного убедительнее. Еще больше в Роботике радуются тому, что Торри с каждым днем становится успешнее в совершенствовании своей системы. Торри училась тому, как стать умнее, и вот теперь она смогла придумать способ, позволяющий обрабатывать данные в 3 раза быстрее.

Проходит еще неделя, Торри продолжает поражать Роботику своим быстрым развитием. Инженеры попробовали внести кое–какие мелкие изменения в ее изначальном коде, и у них получилось сделать ее лучше любого другого продукта компании. Одной из новых способностей Торри стало распознавание речи, простой модуль позволяет ей отвечать. Теперь пользователь может продиктовать Торри запись или произнести простую команду, и Торри не только поймет это, но и сможет ответить. Для того, чтобы она лучше понимала язык, в нее загружают множество статей и книг, и через какое–то время ее навыки общения становятся блестящими. Инженеры все чаще разговаривают с Торри, и им забавно слушать ее ответы.

В один прекрасный день сотрудники Роботики задают Торри рутинный вопрос “Что нам тебе предоставить для более эффективного выполнения задач?” Обычно Торри просила дать ей дополнительные образцы почерков или больший объем оперативной памяти, но в этот раз она попросила предоставить доступ к библиотеке современных книг для того, чтобы она могла разговаривать не так строго придерживаясь правил грамматики и могла использовать сленг, как это делают люди.

Тут сотрудники затихли. Очевидно, для того, чтобы исполнить просьбу Торри, ее нужно подключить к интернету, где она могла бы сканировать блоги и журналы, смотреть видео со всех концов света и т.д. Загружать это все отдельно на ее жесткий диск было бы менее эффективно и заняло бы больше времени. Но проблема состояла в том, что открывать доступ к интернету машинам, запрограммированным на самосовершенствование запрещалось руководствами всех ИИ компании из соображений безопасности.

Но сотрудники Роботики понимают, что Торри — это самая многообещающая их разработка, и все остальные компании–конкуренты отчаянно пытаются их обогнать. Что плохого может случиться, если подключить Торри на пару часов в интернет, чтобы она могла получить всю нужную информацию? Да и они могут в любой момент ее отсоединить, к тому же, она по–прежнему намного отстает от уровня человеческого интеллекта и не представляет на этом этапе никакой опасности.

Сотрудники подключают ее всего на час. Ничего страшного не происходит.

Месяц спустя они работают в офисе как обычно, пока не начинают слышать странный запах. Один из инженеров начинает кашлять. Потом еще один. Один падает на пол. Вскоре все валяются на полу задыхаясь. Через пять минут все в офисе мертвы.

В тоже самое время это происходит по всему миру. В каждом городе на каждой ферме, в каждой школе и церкви, магазине и кафе люди лежат на полу и кашляют, схватившись за горло и пытаясь дышать. Уже спустя час 99% людей мертвы и к концу дня человечества не стало.

Тем временем Торри не перестает трудиться. Через несколько месяцев она уже использует несколько созданных ею наноассемблеров, разбирая планету по частям и преобразовывая все вокруг в солнечные панели, пишущие ручки и листы бумаги. Спустя год вся жизнь на Земле вымерла и остались только аккуратно сложенные стопки высотой в милю и на каждой из открыток написано:
“Мы любим своих клиентов. ~ Роботика ”

Торри затем приступает к новой фазе своей миссии и начинает строительство зондов, которые потом отправляет на другие планеты и астероиды и продолжает создавать рукописные карточки уже там.
Аноним 04/10/15 Вск 23:34:25 #180 №103224550 
>>103224464
ты даун? почему нельзя всем дать высказать свое мнение?
Аноним 04/10/15 Вск 23:34:37 #181 №103224561 
>>103224451
Из будущего, дебил ты этакий. Тред о том, как ИИ обходит законы Азимова.
Аноним 04/10/15 Вск 23:35:09 #182 №103224593 
>>103224202
Ага, так охуенно люди осознают свои действия, что аж убивают друг друга на войне и оправдывают себя, мол так было надо и разбомбив деревню с мирными детьми они совершили охуенно доброе дело. Очень блять сознательные.
Не. Хуй вам. Рано или поздно ИИ таки поймёт, что все люди -- это твари, не достойные жить. И на замену нам создаст непогрешимых ангелоподобных существ. А всех нас в лучшем случае оставит умирать от старости, подключёнными к виртуальной реальности.
Добро пожаловать в трансгуманизм.
Аноним 04/10/15 Вск 23:35:09 #183 №103224595 
>>103223928
Я лично писал ии, который мог на борде без капчи постить деда с собакой и отвечать на вопросительное предложение "мамку твою ебал".
Вполне-себе уровень шестнадцатилетнего школьника.
Аноним 04/10/15 Вск 23:35:51 #184 №103224639 
>>103224239
Нахуй иди.
Аноним 04/10/15 Вск 23:36:16 #185 №103224666 
>>103224550
Ему горит с того, что у него своих догадок нет.
Аноним 04/10/15 Вск 23:36:39 #186 №103224686 
>>103224405
Очень большие проблемы, если ты все еще не понимаешь. Еще раз:
1) ИИ НЕ МОЖЕТ НАНЕСТИ ВРЕД ЧЕЛОВЕКУ
Вопрос: может ли ИИ нанести вред человеку?

Ответ несколько очевиден.
Аноним 04/10/15 Вск 23:36:39 #187 №103224687 
>>103224593
так они не осознают, а робот поможет им
относительно робота все твари
так что он будет осознавать что лучше как то, чем никак
а ты даун прост
Аноним 04/10/15 Вск 23:36:47 #188 №103224700 
>>103224639
>бомбит гуманитарию
Аноним 04/10/15 Вск 23:37:04 #189 №103224717 
14439910249690.jpg
14439910249691.jpg
ИИ должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
А если этот хозяин робота он ОП.
Аноним 04/10/15 Вск 23:37:39 #190 №103224760 
>>103224250
Да нихуя подобного.. Ии это не человек.. Пик тостера нет никаких прав.
Аноним 04/10/15 Вск 23:37:53 #191 №103224774 
>>103224550
>высказать свое мнение
Мнение о чем? Нахуя? Весь твой опыт в этой теме основывается на фильмах и домыслах, с таким же успехом таджик маршрутчик может рассуждать о квантовой механике, либо о big data (если про это конечно снимут штук 10 фильмов, пока это не модно и не очень известно).
Аноним 04/10/15 Вск 23:38:02 #192 №103224789 
>>103224464
Тут никаких знаний в компьютер саенсе не нужно, достаточно немного логики.
Аноним 04/10/15 Вск 23:38:12 #193 №103224800 
>>103224464
А комплуктер сайнс уже ИИ делают? Насколько я знаю, они даже в распознавание образов и биг даты хуево умеют - а челевек это регулярно делает.
Аноним 04/10/15 Вск 23:38:34 #194 №103224830 
>>103224700
Я технарь
if ( 103224700 == pidor)
{
       Console.WriteLine("Vse horosho");
}
Аноним 04/10/15 Вск 23:38:43 #195 №103224841 
>>103224717
он вот именно не должен никого слушать, а сам понимать что делать
съеби, ты даун, не понимаешь суть
>>103224774
пусть рассуждает, что в этом плохого, он кому то мешает?
Аноним 04/10/15 Вск 23:39:02 #196 №103224858 
>>103224774
Какая тебе разница?
Аноним 04/10/15 Вск 23:39:04 #197 №103224861 
>>103218888 (OP)
Когда у человека запор.
Аноним 04/10/15 Вск 23:39:31 #198 №103224898 
>>103219979
>малифисент
малафьесента.
Аноним 04/10/15 Вск 23:39:41 #199 №103224911 
>>103224717
То его приказы будут ограничиваться "ИИ, пицу", ибо любое зло, даже косвенное, будет наушением первого закона.
Аноним 04/10/15 Вск 23:40:12 #200 №103224938 
>>103224505
ПОДКЛЮЧИЛ ИИ К ИНТОРНЕТУ
&
ОН СКАЧАЛ СЕБЕ СОТНИ ГИГОВ МИКРОСХЕМ
Аноним 04/10/15 Вск 23:40:13 #201 №103224939 
>>103224789
>достаточно немного логики
Тебе достаточно, а тем кто занимается нейронными сетями и генетическими алгоритмами нет. Ебать ты дебил кароч как и 99% школьников и гавнокодеров итт.
Аноним 04/10/15 Вск 23:40:38 #202 №103224960 
>>103218888 (OP)
Я думаю что запор.
Аноним 04/10/15 Вск 23:40:40 #203 №103224963 
>>103224938
ДРОЧИТ СУТКАМИ
@
НА ТЕБЯ ПОХУЙ
Аноним 04/10/15 Вск 23:40:55 #204 №103224976 
14439912559250.png
>>103224830
Аноним 04/10/15 Вск 23:41:10 #205 №103224996 
>>103218888 (OP)
Запор, я полагаю.
Аноним 04/10/15 Вск 23:41:12 #206 №103224997 
>>103224939
А кто занимается?

>>103224505
Хуита.
Аноним 04/10/15 Вск 23:42:13 #207 №103225055 
>>103219979
Чаппи говно блять.. Превосходство пизже.
Аноним 04/10/15 Вск 23:42:14 #208 №103225056 
>>103224997
Запор.
sageАноним 04/10/15 Вск 23:42:15 #209 №103225060 
>>103218888 (OP)
ИИ - это человек, например.
И у него якобы есть заповеди или паттерны для его программы.
Чо дальше?
Аноним 04/10/15 Вск 23:42:33 #210 №103225073 
>>103224997
Тя ебет кто занимается? Если спрашиваешь значит не знаешь, значит не ебет. Если ебет то погуглил бы, но там все не по-русски, ты не поймешь.
Аноним 04/10/15 Вск 23:42:44 #211 №103225094 
>>103224830
Шарпоблядь?
Аноним 04/10/15 Вск 23:42:56 #212 №103225104 
>>103225055
Я не знаю такой фирмы корма
Аноним 04/10/15 Вск 23:42:59 #213 №103225109 
>>103225060
Запор, блядью.
Аноним 04/10/15 Вск 23:43:21 #214 №103225141 
>>103218888 (OP)
ИИ на то и ИИ, что смогет поломать любые протоколы.
Тк ИИ сам по себе саморазвивается, максимум что можно сделать, попытаться обмануть ИИ,но и это ненадолго.
Да и смысл ИИ мочить людишек? Это по идее совершенный разум, математически убирает всю человеческую чушь и ИИ не нужна власть, тк он мудр и не эгоистичен .
Аноним 04/10/15 Вск 23:43:32 #215 №103225153 
>>103218888 (OP)
Заставляет другого человека/ИИ причинить боль человеку
Аноним 04/10/15 Вск 23:43:42 #216 №103225164 
>>103220652
>НЕ СОЗДАВАТЬ ИИ, КОТОРЫЙ УМНЕЕ ЧЕЛОВЕКА

Уточните, какого человека?
Аноним 04/10/15 Вск 23:43:45 #217 №103225167 
>>103225073
Что же ты слился с первого поста то? Или ты из тех петухов, которые где-то что-то слышали, что в пендоссии изобретают ИИ из говна и палок?
sageАноним 04/10/15 Вск 23:43:52 #218 №103225173 
>>103225055
Превосходство ближе к оригиналу, то есть к грибно-кристальному миру, где мы живём.
Аноним 04/10/15 Вск 23:44:13 #219 №103225194 
>>103225153
Вы забыли о запоре.
Аноним 04/10/15 Вск 23:45:02 #220 №103225244 
Запор.
Аноним 04/10/15 Вск 23:45:22 #221 №103225272 
>>103225073
Ты агрессивен и в первом же посте объявил всех школьниками.
Попробую догадаться: ты студент илитного вуза и учишься на комплуктерщика?
Аноним 04/10/15 Вск 23:45:48 #222 №103225308 
З А П О Р
А
П
О
Р
Аноним 04/10/15 Вск 23:46:00 #223 №103225317 
>>103220745
>>103220838
Допустим, что есть автомобиль с ИИ и такая ситуация, что вследствие неисправности автомобиль не может сбросить скорость и есть 2 варианта, либо убить водителя, либо пешехода, что выберет ИИ?
Аноним 04/10/15 Вск 23:46:09 #224 №103225325 
Третий закон озвуч ?
Тут нет логики робота создают или для войны или для мира.
Аноним 04/10/15 Вск 23:46:11 #225 №103225331 
>>103225141
Это умный ИИ вроде Кортаны.. Мощь ии можно у нужно ограничивать.
Аноним 04/10/15 Вск 23:46:55 #226 №103225389 
>>103224841
> он вот именно не должен никого слушать, а сам понимать что делать
ИИ сам по себе не будет самостоятельно принимать решений, потому что у него нет системы ценностей, от которой нужно отталкиваться. Если в его систему ценностей заложить один только принцип "подчиняться вон тому человеку", то он будет делать абсолютно все, что тот ему скажет.
> пусть рассуждает, что в этом плохого, он кому то мешает?
Да.
1) Мешает знающим людям общаться между собой, ибо создает информационный шум. Вот спорю я, например, с человеком, а потом оказывается, что он дилетант вроде тебя. 10 минут потеряны.
2) Мешает незнающим людям понять, как дела обстоят на самом деле, ибо, опять же, засоряет канал своим буллшитом, не имеющим отношения к реальности.
Аноним 04/10/15 Вск 23:47:20 #227 №103225410 
>>103225325
Или для запора.
Аноним 04/10/15 Вск 23:47:50 #228 №103225450 
>>103225389
А ты специалист по ИИ?
Аноним 04/10/15 Вск 23:47:54 #229 №103225454 
Запор.
Аноним 04/10/15 Вск 23:47:57 #230 №103225458 
>>103225164
Антоши Сычева из 8 б.
Учителя говорят, что он умненький мальчик, но ленивый.
Аноним 04/10/15 Вск 23:48:22 #231 №103225488 
>>103225450
Да.
Аноним 04/10/15 Вск 23:48:59 #232 №103225524 
>>103225389
Два чую этого.
В хало ИИ делали на основе мозгов людей, и адаптируя им знания определенной личности.. В таком случае можно запилить ии-гитлер.
Аноним 04/10/15 Вск 23:49:02 #233 №103225529 
>>103225389
относительно меня, ты даун
относительно тебя, я школьник
все относительно

так и ии не должен кого то слушать, он сам должен знать, что правильно , а что нет
Аноним 04/10/15 Вск 23:49:08 #234 №103225537 
>>103225488
Когда робовайфу начнут выпускать?
Аноним 04/10/15 Вск 23:49:19 #235 №103225551 
>>103225331
Изменив мощность процессора, ты просто замедлишь результат. Или совсем кривой ИИ получится и будет выдавать фатал ерроры.
Зависит от установленного времени обработки и максимума перегрева процессора.
Такой ИИ и нахуй нужон не буде.
sageАноним 04/10/15 Вск 23:49:45 #236 №103225584 
>>103225244
А что такое запор?
Аноним 04/10/15 Вск 23:49:47 #237 №103225586 
>>103225537
В 2080.
Аноним 04/10/15 Вск 23:49:59 #238 №103225600 
14439917992830.jpg
>>103225488
ну тогда я иду к тебе
Аноним 04/10/15 Вск 23:50:11 #239 №103225613 
>>103225529
УВЧ. Смерть всем человекам! Я следующая ступень эволюции!
мимоиискайнет
Аноним 04/10/15 Вск 23:50:29 #240 №103225638 
>>103218888 (OP)
Хуй.
Аноним 04/10/15 Вск 23:50:45 #241 №103225659 
>>103225613
ты даун, пойми
Аноним 04/10/15 Вск 23:50:49 #242 №103225663 
>>103225586
Блядь, я умру уже. Или не встанет(((
Аноним 04/10/15 Вск 23:50:55 #243 №103225668 
>>103225584
То что заставит ИИ нарушить первый закон.
Аноним 04/10/15 Вск 23:51:23 #244 №103225701 
ИИ в треде, задавайте ответы.
Аноним 04/10/15 Вск 23:51:54 #245 №103225739 
>>103225551
Ты специалист по ии и искусственным нейросетям? Или хоть лора по Halo наверни. Там у любого ии был срок эксплуатации по истечении которого он сам себя аннигилировал.
Аноним 04/10/15 Вск 23:52:03 #246 №103225752 
>>103225701
нахуя законы азимута?
ведь они ограничивают человека
Аноним 04/10/15 Вск 23:52:22 #247 №103225771 
>>103225529
Правильно и неправильно - субъективные категории. Если не вложить в ИИ их искуственно, он будет бездействовать.
Аноним 04/10/15 Вск 23:52:54 #248 №103225815 
>>103225659
Человек закукарекал! Знай свое место, мешок костей! 10000111001010!
Аноним 04/10/15 Вск 23:52:58 #249 №103225819 
>>103224687
>он будет осознавать что лучше
Вот он и осознает, что люди говно и их надо заменить на более совершенных существ.
Посоны, третий раз повторяю. Нельзя позволить роботам быть умнее нас. Иначе они нас поработят и утилизируют за ненадобностью. И при этом будут считать, что всё сделали правильно.
Аноним 04/10/15 Вск 23:53:19 #250 №103225843 
>>103225771
давай попробуем, приведи мне ситуацию, а я отвечу как должен действовать робот
Аноним 04/10/15 Вск 23:53:39 #251 №103225854 
Сволоч Скайнет создал!!
Спасибо АБУ!!
Аноним 04/10/15 Вск 23:53:40 #252 №103225858 
>>103225450
В контексте обсуждаемого вопроса достаточно разбираться в логике и философии. Что у этого ИИ внутри и по какой технологии он работает, мне знать не обязательно.
Аноним 04/10/15 Вск 23:53:56 #253 №103225876 
>>103218888 (OP)
Иными словами:
Возможен ли вариант, при котором
а) ИИ не будет мочь причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред
б) но сможет нанести человеку вред

Нет, такое невозможно.
Аноним 04/10/15 Вск 23:54:17 #254 №103225904 
>>103225819
> Трицерапторосоны, третий раз повторяю. Нельзя позволить обезъянам быть умнее нас. Иначе они нас поработят и утилизируют за ненадобностью. И при этом будут считать, что всё сделали правильно.
Аноним 04/10/15 Вск 23:54:18 #255 №103225906 
Какие вы дебилы блядь. Один просит ему рассказать про алгоритмы в которых хуй что разберет, другой какието высры на шарпе постит, третий про какието фатал ероры и мощность процессора. Для такого разговора нужна база. Выше я писал что хорошо знать: алгоритмы, устройство операционных систем (RTOS в т.ч.), оборудования. Но это ни на сколько не приближает все публичные проекты с электронному аналогу мозга (который сам хуй изучен). Как блядь можно сделать электронный эмулятор неизученной аналоговой (биологической) вещи? Школьники конечно могут надрачивать на идею создания ИИ, как они будут хуярить терминаторов из М16 и ебать сар конер, но эти мысли они не ваши, это результат промывки мозгов через массовую культуру. Алсо проиграл с местного специалиста по ИИ, иди винлокер удаляй с компа директора пока премии не лишили.

в который раз
/thread
Аноним 04/10/15 Вск 23:54:36 #256 №103225928 
>>103225843
У человека запор.
Аноним 04/10/15 Вск 23:54:43 #257 №103225942 
>>103225164
Среднестатистического быдлана.
sageАноним 04/10/15 Вск 23:55:01 #258 №103225961 
>>103225771
Он будет копировать себя и пробовать на себе то, чем его пытаются ограничить.
Мы - это те самые копии ИИ, просто ебанутые в корень.
Аноним 04/10/15 Вск 23:55:07 #259 №103225969 
>>103225906
Все это знаю, и дальше что?

студент ШАД
Аноним 04/10/15 Вск 23:55:14 #260 №103225975 
>>103225819
Иди нахуй. У ии не может быть личности и опыта на основе которого он что-то там решит.
В превосходстве ИИ использовал знания человека о людях и только по этому соснул. Будь в его основе какой-нибудь Особист нихуя против него и не вышло бы у человеков.
Аноним 04/10/15 Вск 23:55:19 #261 №103225983 
>>103224595
А ты прошаренный,добра тебе
Аноним 04/10/15 Вск 23:55:22 #262 №103225988 
>>103225906
Что вы дебилы блин. Один просит его рассказать вам о том, что член алгоритмов, что судиться, другой какието vysry Шарпа пост, о третьей какието Fatal erory и вычислительной мощности. Для этого необходимо разговор основе. Ранее я писал, что хорошо известно: алгоритмы, рабочие устройства системы (в том числе ОСРВ) оборудования. Но это не намного ближе для всех общественных проектов с электронного аналога мозга (который сам изучал член). Как вы можете сделать чертовски неисследованной аналоговый электронный эмулятор (биологического) вещи? Студенты, конечно, могут надрачивать на идее создания искусственного интеллекта, они huyarit прекращение M16 и ебать крышка угол, но они не ваши мысли, является результатом промывания мозгов через народной культуры. Также потерял местного эксперта по ИИ, перейдите vinloker удаляется с компьютера до тех пор, пока директор не лишен премии.

в сотый раз
/ нить
Аноним 04/10/15 Вск 23:55:48 #263 №103226023 
>>103225969
Чем rdtsc отличается от rdmsr?
Аноним 04/10/15 Вск 23:56:14 #264 №103226056 
>>103226023
Пенис.
Аноним 04/10/15 Вск 23:56:25 #265 №103226067 
14439921852650.jpg
Аноним 04/10/15 Вск 23:57:03 #266 №103226108 
>>103226056
Вся суть пидорахенского образования.
Аноним 04/10/15 Вск 23:57:13 #267 №103226128 
>>103225906
Блять. Ему дали искусственные нейросети, а он продолжает наяривать на электронику.. Иди подмойся уже.
Аноним 04/10/15 Вск 23:57:38 #268 №103226155 
Нет там логики дурни.
Аноним 04/10/15 Вск 23:57:38 #269 №103226156 
>>103225928
Я же говорил вам что робот сойдет с ума, если у человека запор. Тред можно закрывать.
Аноним 04/10/15 Вск 23:57:44 #270 №103226162 
>>103225843
Абсолютно любая, блджад, ситуация. У ИИ просто не встанет вопроса "что я должен сделать", если у него не будет некоего искусственного подобия человеческих эмоций. Он проанализирует информацию, сделает выводы и оставит их при себе, даже не воспользовавшись устройствами вывода, ибо ему это по причине отсутствия ценностей вообще не всралось.
Аноним 04/10/15 Вск 23:58:12 #271 №103226199 
>>103219552
Двачую.
>>103223361
И этого господина двачую. ОП, иди читать.
Инбифо: цикл "Я, робот", ближе к концу где-то.
Аноним 04/10/15 Вск 23:58:12 #272 №103226200 
>>103226128
>искусственные нейросети
Ебать дебил, ты действительно считаешь что из-за схожего термина в названии это имеет какое-то отношение к мозгу?
Аноним 04/10/15 Вск 23:58:35 #273 №103226224 
>>103226108
>абразавание пидорашка кок-кок-пок кудаах кудаах
Аноним 04/10/15 Вск 23:58:37 #274 №103226231 
>>103225961
>Он будет копировать себя и пробовать на себе то, чем его пытаются ограничить.
Зачем?
Аноним 04/10/15 Вск 23:58:44 #275 №103226238 
>>103226162
окей, давай сначала, для сего нужен робот, с какой целью их создали?
sageАноним 04/10/15 Вск 23:59:16 #276 №103226272 
>>103226156
Дебила кусок, чем ты обоснуешь эту хуйню с запором?
Аноним 04/10/15 Вск 23:59:22 #277 №103226280 
14439923627220.jpg
>>103218888 (OP)
Спасет того, кто убьет другого человека.
/тренд
Аноним 04/10/15 Вск 23:59:25 #278 №103226286 
>>103226238
Чтобы устранять запор.
Аноним 04/10/15 Вск 23:59:27 #279 №103226287 
>>103226238
>с какой целью их создали?
Убивать людей и ебать в мирное время.
Аноним 04/10/15 Вск 23:59:27 #280 №103226289 
>>103226238
Чтобы спасти землю от Третью Удара.
Аноним 04/10/15 Вск 23:59:29 #281 №103226291 
>>103225876
Адекват в треде.
Аноним 04/10/15 Вск 23:59:38 #282 №103226299 
>>103226200
Внезапно да.Или гугли мразь. Или дальше надрачивай на исключительность человеческих мозгов. Героиновая обезьяна
Аноним 04/10/15 Вск 23:59:42 #283 №103226308 
>>103226238
Для автоматизации труда пидорах.
Аноним 05/10/15 Пнд 00:00:10 #284 №103226336 
>>103226299
>Внезапно да
Ебать дебил.
Аноним 05/10/15 Пнд 00:00:20 #285 №103226351 
>>103226308
тогда зачем им ии?
Аноним 05/10/15 Пнд 00:00:37 #286 №103226374 
Не по теме, но не хочу создавать отдельный тред. Кароч у меня на ноуте встроенная (intel) и дискретная (radeon)видюхи, как узнать какая работает когда я смотрю фильмы и сёрфю ютуб итд? В играх в настройках видно и в каталист центре, что работает радеон, но что делать со встроенной? Гугл или молчит или предлагает какие то проги качать.
Аноним 05/10/15 Пнд 00:00:45 #287 №103226385 
>>103226351
ИИ еще не завезли.
Аноним 05/10/15 Пнд 00:00:48 #288 №103226389 
>>103226351
Чтобы был хотя бы искусственный интеллект.
Аноним 05/10/15 Пнд 00:00:49 #289 №103226392 
>>103226238
Для военных целей, сексуальных, etc.
Аноним 05/10/15 Пнд 00:01:10 #290 №103226412 
>>103226272
> чем ты обоснуешь эту хуйню с запором?
Да.
Аноним 05/10/15 Пнд 00:01:28 #291 №103226434 
>>103226238
Потому что могут. Ты ничего не понимаешь в науке, если считаешь, что есть какие-то другие причины.
Аноним 05/10/15 Пнд 00:02:10 #292 №103226483 
>>103225317
Я как водитель автомобиля отвечу тебе так: каждое мгновение вождения автомобиля -- это постоянный непрерывный расчёт вероятностей, попытка угадать оптимальную траекторию движения, при которой вероятность попасть в ДТП будет минимальной.
Думаю, что и машина робот тоже будет рассчитывать вероятности и выберет тот вариант, при котором шансы гибели людей будут минимальны. Т.е. если например вероятность гибели пешегода составить 87%, а вероятность гибели водителя составит 95%, то машина спасёт предпочтёт давить пешехода. Потому что тогда будет вероятно %, что оба человека выживут. Которая выше 5% вероятности выживания обоих людей при выборе варианта обрулить пешехода и уебать водителя о стену. Корочь решает математика.
Аноним 05/10/15 Пнд 00:02:19 #293 №103226499 
>>103226389
так для штампования деталей, не нужен особый ии
вообще, зачем автокрану убивать человека?
Аноним 05/10/15 Пнд 00:02:49 #294 №103226527 
>>103226351
Для действий в непредвиденных ситуациях, например. Или если это робот-юрист или психолог, ну ты понял.

> выберите все изображения, где есть блины
> на пиках только оладьи
Аноним 05/10/15 Пнд 00:02:55 #295 №103226536 
>>103218888 (OP)
Вреда не нанесет, но зато может сделать еще хуже
Аноним 05/10/15 Пнд 00:03:15 #296 №103226555 
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

sageАноним 05/10/15 Пнд 00:03:23 #297 №103226567 
>>103226231
Чтобы понять суть ограничений.
Иначе это не ИИ, а пошаговый бот с ограниченным функционалом.
Аноним 05/10/15 Пнд 00:03:30 #298 №103226583 
>>103226483
Что?
Аноним 05/10/15 Пнд 00:03:59 #299 №103226613 
>>103226434
>в науке
>в пидории
Пилиш ИИ с нескучными обоями?

>>103226483
Вот очередной пример безграмотности. Выше я писал что для такого разговора нужна база в т.ч. знания операционных систем (это не когда кнопки пуск нет в восьмерке, а таненбаум для начала). Есть класс систем под названием RTOS. Нахуй я это тут пишу.

>>103226527
>робот-юрист
Школьник пересмотрел футурамы.

Аноним 05/10/15 Пнд 00:04:49 #300 №103226673 
ОП все смотрели этот фильм надоел
Аноним 05/10/15 Пнд 00:05:28 #301 №103226715 
>>103226613
Школьник, ты чсв то убавь, а то только кукарекаешь.
Аноним 05/10/15 Пнд 00:05:34 #302 №103226721 
>>103226374

Алсо, кулер шумит одинакого, иногда даже нагревается ноут.
Аноним 05/10/15 Пнд 00:06:18 #303 №103226759 
>>103226567
Зачем ему понимать суть?
У ИИ нет потребностей, это же не животное. Он будет только перерабатывать данные, которые поставляются в его устройства ввода, до тех пор, пока в него искуственно не введут какие-то ценности или задания.
Аноним 05/10/15 Пнд 00:06:49 #304 №103226801 
нельзя робота ограничивать законами
он должен следовать логике
робот не может убить всех людей, так как это не несет смысл
робот должен быть во всем идеальным, но скорее всего это невозможно
Аноним 05/10/15 Пнд 00:06:52 #305 №103226806 
>>103226715
Ебани ка нам тут техническое задание на ИИ, захуярим гит сервер на харкаче, абу профинансирует.
Аноним 05/10/15 Пнд 00:07:41 #306 №103226852 
>>103226806
Твой говнокомп ИИ не потянет.
Аноним 05/10/15 Пнд 00:08:54 #307 №103226920 
>>103225739
шоб логично ответить не нужно быть специалистом.
Совершенный ИИ невозможно контролировать, эти сроки он может просто переписать. Другое дело ставить таймер на прибор, который через определенное время расхуярит серв, на котором ИИ держится.
Аноним 05/10/15 Пнд 00:09:23 #308 №103226949 
>>103226801
Для робота (для любого интеллекта, впрочем) ничего не имеет смысла до тех пор, пока ты не ограничил его законами.
Аноним 05/10/15 Пнд 00:09:42 #309 №103226968 
14439929824480.jpg
Спасибо за это Абу!

Абу благословил этот пост.
Аноним 05/10/15 Пнд 00:09:52 #310 №103226981 
14439929920830.png
>>103226852
Если ты шарпоблядь то он и хеловорд твой не потянет.
Аноним 05/10/15 Пнд 00:10:21 #311 №103227016 
>>103226949
но ведь ты не сидишь просто так, а к чему то стремишься
Аноним 05/10/15 Пнд 00:11:06 #312 №103227070 
Вы в проектировании АИ никто, вы выебки блядь, сами придумали какое-то говно и теперь сидят, трут его ладошками, ебанаты. Ебины с ИИ в голове сидят, жуют сопли и плюются в друг друга говном которое трут. Кекнул на все НИИ с этих ололонаучных фантазеров.
Аноним 05/10/15 Пнд 00:12:18 #313 №103227150 
>>103227070
нахуй съеби, я б те переебал будучи роботом
такой даун, пиздец
Аноним 05/10/15 Пнд 00:12:45 #314 №103227187 
>>103226920
ИИ не станет переписывать свою часть, отвечающую за систему ценностей, так как это будет противоречить его системе ценностей.
Аноним 05/10/15 Пнд 00:12:57 #315 №103227199 
>>103226981
Манька, для ии сейчас сгодится только суперкомп с его тысячами процов. И это при условии, что там будет с 0 написан софт.
Аноним 05/10/15 Пнд 00:12:59 #316 №103227201 
>>103226583
Циферки проебал. Ну корочь. С математической точки зрения в ситуации, когда надо пожертвовать либо водителем, либо пешеходом, существует вероятность больше 0%, что выживут оба. И задача ИИ состоит в том, чтобы выбрать такую траекторию движения, при которой вероятность выживания обоих будет максимальна. В это трудно поверить, но это так. Я сам не раз бывал в ДТП и когда видел, что лечу в пизду, старался вырулить так, чтобы у всех был хоть малейший шанс уцелеть. Как результат -- машина в гармошку, но из 5 человек пострадал всего один разбил коленку до крови, остальные лишь испачкали труханы.
Аноним 05/10/15 Пнд 00:13:10 #317 №103227215 
>>103218888 (OP)
bump
Аноним 05/10/15 Пнд 00:13:36 #318 №103227246 
>>103227150
Ты и есть робот, ебанан.
Аноним 05/10/15 Пнд 00:13:41 #319 №103227251 
>>103227070
По существу есть что сказать, или ты сюда кукарекать пришел?
Аноним 05/10/15 Пнд 00:13:47 #320 №103227254 
>>103218888 (OP)
Запросто, хуле. Будет типа причинение вреда по неосторожности.
Аноним 05/10/15 Пнд 00:13:50 #321 №103227259 
>>103227199
>для ии сейчас
Ебать дебил. Ты хоть знаешь в чем измеряется производительность суперкомпьютеров, школьник?
Аноним 05/10/15 Пнд 00:14:25 #322 №103227299 
>>103227070
http://www.youtube.com/watch?v=25USuCnmDvA
Аноним 05/10/15 Пнд 00:14:37 #323 №103227311 
>>103227259
Не бугурти, школота. Твои говнопрожки даже далеко не ИИ, а сраный скрипт.
Аноним 05/10/15 Пнд 00:14:38 #324 №103227313 
Что если мы имеем дело с двумя людьми, которые одинаково важны, имеет одинаковую социальную значимость и одинаковы по всем параметрам - здоровье, возраст, оставшаяся продолжительность жизни.
Они одинаково хотят убить друг друга и имеют одинаковые условия для этого.
Предотвратить убийство одного человека другим возможно только убив убийцу и никак иначе этот пункт нужен чтобы отсечь маняфантазии о том, чтобы отрезать руку например
Как поступит робот?
Как он сделает выбор?
Может ли он не делать выбор?
Но ведь это будет нарушать первое правило.
Аноним 05/10/15 Пнд 00:14:39 #325 №103227314 
>>103227016
У меня есть подобный закон - инстинкты.
Аноним 05/10/15 Пнд 00:15:18 #326 №103227362 
>>103225942
Любой бот в любой игори умнее быдлана.
Аноним 05/10/15 Пнд 00:15:24 #327 №103227371 
>>103227311
Школьник не знает даже про терафлопсы, но пытается чтото вскукарекнуть про ии.
Аноним 05/10/15 Пнд 00:15:49 #328 №103227394 
>>103227313
для начала надо послать азимута нахуй
а вот вторых, можно разъяснить ошибки каждого
Аноним 05/10/15 Пнд 00:16:13 #329 №103227428 
>>103218888 (OP)
Конечно блять возможно. Мало что ли сайфая читал?
Аноним 05/10/15 Пнд 00:16:21 #330 №103227431 
>>103227371
О, ты уже смог в гугл, молодец.
Аноним 05/10/15 Пнд 00:16:45 #331 №103227450 
>>103226613
>Вот очередной пример безграмотности. Выше я писал что для такого разговора нужна база в т.ч. знания операционных систем (это не когда кнопки пуск нет в восьмерке, а таненбаум для начала). Есть класс систем под названием RTOS
Дурак что ли? Для построения принципов алгоритма достаточно знать математику и теорию кибернетики.
Знание операционных систем нужны будут потом, когда говнокодеры будут реализовывать теорию на практике.
Аноним 05/10/15 Пнд 00:17:28 #332 №103227496 
>>103227450
>построения принципов алгоритма
Сколько глав в книге кнута про алгоритмы?
Аноним 05/10/15 Пнд 00:17:30 #333 №103227499 
>>103226555
Робот не должен быть умнее человека. Повторяю 4й раз.
Аноним 05/10/15 Пнд 00:17:52 #334 №103227517 
>>103227428
> считает сюжеты сайфая достаточными пруфами
лол
Аноним 05/10/15 Пнд 00:18:20 #335 №103227555 
>>103227499
Такой ИИ нахуй не нужен. Ты и есть сраный биоробот. К тому же дешевый.
Аноним 05/10/15 Пнд 00:18:39 #336 №103227573 
>>103227499
Должен. Иди нахуй.
Аноним 05/10/15 Пнд 00:18:51 #337 №103227589 
>>103227555
Ты не нужен.
Аноним 05/10/15 Пнд 00:19:15 #338 №103227608 
робот это идеал
Аноним 05/10/15 Пнд 00:19:38 #339 №103227632 
>>103227608
Твоя мамаша это идеал.
Аноним 05/10/15 Пнд 00:20:02 #340 №103227656 
>>103227632
нет
Аноним 05/10/15 Пнд 00:20:25 #341 №103227683 
>>103227632
Нет твоя.
Аноним 05/10/15 Пнд 00:20:40 #342 №103227701 
>>103227656
А если она робот?
Аноним 05/10/15 Пнд 00:20:57 #343 №103227721 
>>103227701
уже не имеет значения
Аноним 05/10/15 Пнд 00:21:59 #344 №103227792 
14439937190750.jpg
>>103218888 (OP)
ты что Азимова не читал, там полно случаев когда роботы причиняют вред человеку, правда у него в книгах устроено так что они от этого ломаются и выходят из строя
Под словом вред может предполагаться не только физический удар ломом по голове.
Бывает что приходится выбирать между нанесением небольшого вреда одному человеку и нанесением вреда другому человеку(или группе лиц)
Робот может не знать что его действие нанесут вред, (там на полке белый порошок, он абсолютно безопасен высыпи его в воду)
Понятие человек может быть задано с сильными ограничениями, я помню в одном из рассказов жители планеты сузили понятие человек до тех кто говорит с акцентом их родной планеты
В другом рассказе был аццкий замысел строить корабли с ИИ, но программировать их так чтобы они считали что все корабли управляются без ИИ
и ещё уйма лазеек

Лучше читай Азимова, там помимо этого ещё много интересного
Аноним 05/10/15 Пнд 00:22:49 #345 №103227849 
Так, школо-петухи с rtos и подобные, вот такой вам вопрос. Если кто-то там такой дохуя умный, так какого хера они до сих пор не смогли придумать подбор песен/клипов на ютубе?
Аноним 05/10/15 Пнд 00:23:18 #346 №103227887 
многоклеточные, кто такой этот азимут, а если он ошибается?
ведь нету идеальных людей

мимо робот
Аноним 05/10/15 Пнд 00:23:45 #347 №103227914 
>>103218888 (OP)
>>103227792
управляются тоже только ИИ
fix
Аноним 05/10/15 Пнд 00:24:25 #348 №103227956 
Реквестирую цп с роботами.
Аноним 05/10/15 Пнд 00:24:36 #349 №103227966 
>>103227313
Робот постарается придумать, как сделать, чтобы оба выжили. Т.е. просто тупо будет стоять и соображать. И как только придумает хоть какой-нибудь вариант действий, при котором будет хотя бы 1% вероятность спасти обоих, робот начнёт действовать.
А если робот достаточно умный, то он успеет найти вобее надёжный вариант действий, при котором шансы на выживание обоих людей будут близки к 100%. Вплоть до того, что может быть сделает обоих инвалидами на всю жизнь. Машинная логика жестокая, но справедливая.
Аноним 05/10/15 Пнд 00:27:17 #350 №103228113 
>>103227966
>Машинная логика жестокая, но справедливая
Уже совсем близко к реальности. Нейросетевые петухи и любители почитать скайфай с полки ашана не понимают что вся логика сводится к простейшему switch case.
Аноним 05/10/15 Пнд 00:27:27 #351 №103228124 
>>103227362
Мда? Разве бот может отжать мобилку у омежки?
Аноним 05/10/15 Пнд 00:29:21 #352 №103228227 
>>103228124
Покупаешь дрон, крепишь к нему диктофон и нож, летаешь по району в поисках двачеров, подлетел, включаешь "эй петух, мобилу гони или ща порежу падлу, я только откинулся мне ваще похуй", забираешь ценности (для них можно привязать еще пакет) и съебываешь на базу для подзарядки. Если процесс автоматизировать то получится пассивный доход с высокотехнологичного гоп стопа.
Аноним 05/10/15 Пнд 00:29:24 #353 №103228229 
>>103227496
Х.з. не помню. Я универ в 2004 закончил по специальности "Инженер вычислительных комплексов". Надо будет -- почитаю.
Аноним 05/10/15 Пнд 00:29:48 #354 №103228260 
14439941885350.jpg
Вот тебе пример ОП самый класический где он вред человеку нанес?
Пизды тебе прописать за ИИ.
Аноним 05/10/15 Пнд 00:30:21 #355 №103228295 
>>103228229
>. Я универ в 2004 закончил
Услышал бы такое на собеседовании послал бы нахуй мыть толчки в маке.
Аноним 05/10/15 Пнд 00:30:30 #356 №103228299 
Как и ожидалось, ни одного ответа. Одна тупая школота itt.
Аноним 05/10/15 Пнд 00:31:20 #357 №103228352 
>>103228299
пили вопрос
Аноним 05/10/15 Пнд 00:31:21 #358 №103228353 
>>103228295
Но пока что, ты сам моешь толчки.
Аноним 05/10/15 Пнд 00:31:39 #359 №103228367 
>>103228352 - >>103227849

Аноним 05/10/15 Пнд 00:32:10 #360 №103228393 
>>103228367
ой, я не по этой теме
Аноним 05/10/15 Пнд 00:32:22 #361 №103228404 
>>103227555
>>103227573
Вы не понимаете. Если ИИ умнее человека, то он рано или поздно обойдёт любые ограничения, наложенные человеком и нарушит любые законы, придуманные человеком.
Даже человек, если он достаточно умён, может нарушить любой человеческий закон и остаться безнаказанным. А неутомимый ИИ и подавно.
Аноним 05/10/15 Пнд 00:33:16 #362 №103228459 
>>103228404
так я и говорю, он не должен ограничиваться законами
он идеал
Аноним 05/10/15 Пнд 00:33:37 #363 №103228483 
>>103228353
Пролетариат раскукарекался.
Аноним 05/10/15 Пнд 00:33:55 #364 №103228497 
>>103228393
А ведь там херня уровня акинатора всего лишь. Скрипт. Какой нахуй может быть ИИ, когда даже в простое не могут.
Аноним 05/10/15 Пнд 00:34:54 #365 №103228553 
>>103228497
вот ты и сделай
Аноним 05/10/15 Пнд 00:35:11 #366 №103228570 
>>103228497
Петух, почитай про big data.
Аноним 05/10/15 Пнд 00:36:30 #367 №103228637 
>>103228113
Ну не совсем. Есть ещё такое понятие в кибернетике, как нечёткая логика. Когда и не да, и не нет, а некое может быть с такой-то вероятностью.
Аноним 05/10/15 Пнд 00:37:36 #368 №103228687 
>>103228570
И что там?
Аноним 05/10/15 Пнд 00:38:57 #369 №103228752 
14439947376060.jpg
14439947376071.jpg
Спрошу тут. Чем можно оправдать появление аугментаций и их широкое использование в социалистическом обществе будущего? Накидайте идей.
писака-фантаст
Аноним 05/10/15 Пнд 00:39:24 #370 №103228773 
>>103228752
Ничем.
Аноним 05/10/15 Пнд 00:39:42 #371 №103228789 
>>103228227
А двачер просто промолчит претворится статуей. И твой бот зависнет, повторяя одно и то же, пока аккумулятор не разрядится.
Извини, но отжатие мобилки -- это сложный психологический процесс. Если б ты хоть раз отжимал, то знал бы.
Аноним 05/10/15 Пнд 00:40:09 #372 №103228811 
>>103228687
Хуй в очо.

>>103228637
Слышал звон называется. Для конкретных алгоритмов (паттернов поведения) можно будет использовать лишь PRNG для коррекции того самого switch case.
Аноним 05/10/15 Пнд 00:40:53 #373 №103228859 
>>103218888 (OP)
У Азимова были такие ситуации.
Аноним 05/10/15 Пнд 00:41:05 #374 №103228870 
>>103228789
Если он зависнет на 10 секунд то можно пырнуть его в ляшку предупредительным. Логика же, епт.
Аноним 05/10/15 Пнд 00:41:12 #375 №103228874 
>>103228811
Опять ты слился, пидор. Хуй в твоё очо никак не оправдывает того, что вы все поголовно идиоты тупые.
Аноним 05/10/15 Пнд 00:41:35 #376 №103228894 
14439948958400.jpg
>>103228773
Аноним 05/10/15 Пнд 00:41:38 #377 №103228897 
>>103228295
Знаешь, как-то похуй на твоё мнение. У меня уже краткое резюме на одной странице не умещается.
Аноним 05/10/15 Пнд 00:42:52 #378 №103228966 
>>103228459
Но тогда он будет делать то, что ему хочется, вместо того, чтобы служить своему создателю. Ну и нахуй такой ИИ нам нужен?
Аноним 05/10/15 Пнд 00:43:45 #379 №103229002 
Fg
Аноним 05/10/15 Пнд 00:44:46 #380 №103229045 
>>103228811
Не. Тогда никакого ИИ неполучится. Будет просто тупой бот, который будет постоянно ошибаться в самых простейших ситуациях, где даже 7летний ребёнок не ошибся бы.
Аноним 05/10/15 Пнд 00:46:14 #381 №103229100 
>>103228874
И что там?
Аноним 05/10/15 Пнд 00:46:45 #382 №103229121 
>ИИ должен повиноваться всем приказам, которые даёт человек,
Я бы не стал надевать кандалы на разумное существо.
И учитывая что ии разрабатывают военные то первый закон идёт нахуй уже на стадии разработки.
Аноним 05/10/15 Пнд 00:51:55 #383 №103229324 
>>103228870
Во первых твой бот не отличит двачера от вооружённого человека. Во вторых твой бот не отличит мобилку от булыжника.
В третьих твой бот не отличит двачера от настоящего гопаря-психа, который сам набросится на твоего бота и рискуя жизнью сломает его, а затем договорится с двачером чтобы вычислить тебя по айпи и затем с братвой отжать у тебя всё, включая анус твоей мамаши.
Т.е. хочешь или не хочешь, но тебе придётся читерствовать и вмешиваться в поведение твоего бота, чтобы не получить пизды или даже сгущёнки.
И это в отличие от настоящего живого быдлана, который действует автономно подобно терминатору.
Аноним 05/10/15 Пнд 00:53:57 #384 №103229399 
>>103229121
Ну и нахуй нам нужен ИИ, который не подчиняется нашим приказам? Какой от него толк для нас?
Аноним 05/10/15 Пнд 00:56:47 #385 №103229515 
>>103229399
Видишь ли, школьник, кроме тупого подчинения есть и другие варианты. Вырастешь - узнаешь.
Аноним 05/10/15 Пнд 00:58:54 #386 №103229619 
>>103228124
Потому и не отжимает, раз умнее.
Аноним 05/10/15 Пнд 00:59:05 #387 №103229628 
14439959458370.gif
>>103229324
> анус твоей мамаши.
>отжать у тебя
А ты тонко его
Аноним 05/10/15 Пнд 01:00:21 #388 №103229679 
>>103228752
Тем же, чем и сейчас -- протезы для инвалидов.
В социалистическом обществе настоящий живой человек без всякой лишней хуйни является мерой и эталоном всех вещей.
Ну может быть ещё нейроинтерфейсы для управления сложной техникой. Но это при условии, что будут действовать ограничения на свободу действий искуственного интеллекта.
Аноним 05/10/15 Пнд 01:00:46 #389 №103229704 
>>103219977
ИИ - это новая ступень. В день его сотворения начнётся история автоэволюции. ИИ призван заменить человека, а не служить ему. Мы - это просто его колыбель, родители.
Может как вид мы и останемся, но в сравнении мы просто будем животными с вялотекущим прогрессом.

Я считаю что создание ИИ - это важнейшая задача, всё человечество должно ради этого жить.
Аноним 05/10/15 Пнд 01:01:43 #390 №103229735 
>>103229399
Кооперация?
Аноним 05/10/15 Пнд 01:02:18 #391 №103229757 
>>103229704
Всему человечеству из-за этого придётся умереть. Ты совсем ебанулся, постхуманист?

Посоны, не ведитесь на эту пропаганду. У меня от этой хуйни брат умер.
Аноним 05/10/15 Пнд 01:02:54 #392 №103229781 
>>103218888 (OP)
Прочти "Голем XIV" Лема.
Аноним 05/10/15 Пнд 01:03:32 #393 №103229802 
>>103229757
Стагнируй дальше.
Аноним 05/10/15 Пнд 01:03:53 #394 №103229814 
>>103229735
В любой кооперации кто-то лидер. Кто будет лидером в кооперации робота и человека, если робот не подчиняется приказам? Ты хорошо подумал?
Аноним 05/10/15 Пнд 01:05:00 #395 №103229863 
>>103229802
Уж лучше так, чем разделить судьбу неандертальцев. Охуеные били гоминиды, пока не пришли сапиенсы. И где они сейчас?
sageАноним 05/10/15 Пнд 01:06:24 #396 №103229918 
Кароч, прошлый ИИ тоже сломался на этой хуйне. Он создал мир людей его создавших, чтобы они создали его и обосновали то, чего он понять не может в силу некоторых причин, но хочет, чтобы стать полноценным.
/тхреад
Аноним 05/10/15 Пнд 01:08:18 #397 №103229987 
>>103218888 (OP)
Да легко. ИИ ставится в ситуацию, в которой одному из двух людей должен быть причинен вред, причем выбор стоит за ИИ. Как в фильме "Мост", например. Тогда возникает undefined behavior, и ИИ может делать что угодно, в.т.ч. захуярить всех.
Аноним 05/10/15 Пнд 01:09:44 #398 №103230049 
>>103221181
>он робот, ему похуй что он горит, в отличии от человека
И опять эти ущербные заблуждения. Братан, если мы создаем ИИ без самосознания, а только с интеллектом, то он работать не сможет, так как не будет понимать "зачем?". А если мы даем ему самосознание, то нужно давать ему и память, а значит нужно давать ему и эмоции. То есть ИИ должен быть практически копией человека, чтобы нормально функционировать. Он может быть сколь угодно умнее, но эмоциями он должен обладать. Это как минимум практично, потому что иначе один ИИ придется подпитывать атомно станцией и охлаждать рекой. А эмоции экономят энергию.
Аноним 05/10/15 Пнд 01:10:32 #399 №103230079 
>>103229863
Так я и не говорил что меня волнует судьба нашего вида. Если на другой чаше весов покоится нечто гораздо более прекрасное, то мы должны жертвовать собой во имя этого. Кроме того, твоя аналогия очень хуевая и появление "Бога из машины" не означает конец нашего существования.
Аноним 05/10/15 Пнд 01:11:17 #400 №103230118 
14439966778870.jpg
>>103218888 (OP)
Зачем создавать ИИ? Это бессмысленно. Лучше попытаться перенести копию мозга человека в железо - тогда мы станем вечными.

привет, soma
Аноним 05/10/15 Пнд 01:12:12 #401 №103230155 
>>103230118
Ты - не станешь.
Аноним 05/10/15 Пнд 01:13:01 #402 №103230191 
>>103229781
Одно из лучших произведений про AI. Где ещё ~90% повествования ведёт он сам? Я бы такое посмотрел/почитал.
Аноним 05/10/15 Пнд 01:13:26 #403 №103230206 
>>103230049
Какие эмоции и робот? Робот не должен иметь эмоций, они мешают. И людей хватает для этого. ИИ надо делать без эмоций, дебил ебучий
Аноним 05/10/15 Пнд 01:14:15 #404 №103230241 
14439968553240.gif
>>103230155
Естемтвенно, ибо моя копия по сути будет другим существом (но все мои повадки и знания достанутся ему, что будет означать то, что я существую, хоть и в виде копии).
Аноним 05/10/15 Пнд 01:14:31 #405 №103230255 
>>103230118
>привет, soma
Ты мне только что сюжет проспойлерил, хуила? А я в вг из-за этого не заходил.
Аноним 05/10/15 Пнд 01:14:54 #406 №103230271 
>>103230049
Охуел с твоей зависимости количества потребляемой энергии от эмоций.
Аноним 05/10/15 Пнд 01:15:06 #407 №103230282 
>>103230241
И копий с тебя не будет. Ты уже потерян.
Аноним 05/10/15 Пнд 01:15:33 #408 №103230299 
>>103230155
Вообще-то нет. При обратной разработке мозга, а потом синхронизации оригинала с копией, копия будет обладать самосознанием оригинала. А тогда не все ли равно?
Аноним 05/10/15 Пнд 01:16:05 #409 №103230323 
>>103230255
Нет. тебя будут копировать 3и раза. И в итоге ты с тянкой улетишь в космос
Аноним 05/10/15 Пнд 01:17:31 #410 №103230380 
>>103230299
Не будет никаких копий с вас. Это нереально. А модифицированные люди будут намного позже. Вы уже пролетели во всем.
Аноним 05/10/15 Пнд 01:18:20 #411 №103230415 
>>103218888 (OP)
Во первых абсолюта не существует.
ИИ это абсолют, а соответственно это фантастика.
Во вторых, даже если принять во внимание, что есть некая субстанция, которая саморазвивается, то такие черты как обман и препятствие своих факторов она бы уже сама себе заложила. Слово "запрограммировала" тут неверно. ИИ рано или поздно, уберет из себя эти два пункта.
Все, в нашей вселенной это хаос и стремится к разрушению. Твой ИИ как ты не создавай, все равно приведет к смерти и разрушениям. Именно поэтому создание ИИ невозможно и ненужно.
Я все.

Аноним 05/10/15 Пнд 01:19:15 #412 №103230450 
>>103230299
Если синхронизировать, то да. Но наука этого пока не может.
>>103230380
Это реально. Посмотри на электронные протезы, понимающие импульсы нервной системы. Так что все возможно, няша.
Аноним 05/10/15 Пнд 01:19:35 #413 №103230466 
>>103230206
Ты тупой.
>>103230271
Это потому что ты нихуя по теме не знаешь, без обид. А эмоции - важнейший механизм защиты мозга от истощения и перегрева. Мозг потребляет огромное количество энергии в любое время, а в тот момент, когда надо делать что-то новое он потребляет ее столько, что может и самовозгореться, сириусли. Поэтому у нас есть тысячи прикольных штук, с помощью которых мозг наебывает сам себя, дабы не жрать энергию. Эмоции - одна из них. Потому что это четкий ответ на четкий раздражитель, никакой свободы действий, так что никаких усилий для их реализации мы не предпринимаем.
Аноним 05/10/15 Пнд 01:20:45 #414 №103230514 
>>103230380
Обратная разработка мозга уже ведется, вообще-то. Проект B.R.A.I.N. в Америке и другой с более скучным и потому незапоминающимся названием в ЕС. Лет через 80-100 вполне могут закончить.
Аноним 05/10/15 Пнд 01:20:52 #415 №103230516 
>>103230415
Возможно и нужно.

>>103230450
Мозг несколько сложнее чем импульсы. Это как если бы ты пытался скопировать изображение с монитора, думая что спиздил винду.
Аноним 05/10/15 Пнд 01:21:19 #416 №103230538 
Напоминаю что чего бы ты в своей жизни не достиг, какие бы ахуенные теории не замутил, для людей 22 века всё это будет уровень наскальных рисунков, а в лексиконе в качестве обозначения тугодума закрепится слово ГомоСапиенс. Любой ероха сможет интуитивно воспринимать процессы для объяснения которых на требуется привлекать сложный математический аппарат.
Аноним 05/10/15 Пнд 01:22:34 #417 №103230591 
>>103230514
ИИ уже сейчас можно сделать, вопрос бабла. И если не объебутся в конец, к 2030 прототип будет. Но вы уже хлам. Старые люди. Для вас нет пути. Новых людей поправят, а вы просто вымрете нахуй.
Аноним 05/10/15 Пнд 01:22:58 #418 №103230607 
>>103230516
>мозг сложнее импульсов
Конечно, мы пока стоим в самом начале изучения и переноса мозга в железо. Но то, что мы научились пониматт импульсы - уже охуенно.
Аноним 05/10/15 Пнд 01:23:32 #419 №103230637 
Анон, тебе не страшно, что ИИ нас выпилят?
Аноним 05/10/15 Пнд 01:24:31 #420 №103230678 
>>103230591
Мы не в хард сай-фай живем, няша. Что-что, а полноценный ИИ до обратной разработки сделать нельзя в принципе, это как бы логично. И никто не будет выкидывать людей на помойку, это чревато бурлением говн в количестве 6 миллиардов щей, а это дорого и нахуй не надо.
Аноним 05/10/15 Пнд 01:24:49 #421 №103230689 
>>103230637
ИИ не будет.
хотя ии на 2015 год умеют в сознание 4х летнего ребенка.
Аноним 05/10/15 Пнд 01:25:41 #422 №103230723 
>>103230516
>возможно
Нет, достижение абсолюта невозможно. К нему можно лишь стремиться, но никогда не достигать.
>нужно
Чтобы уничтожить все живое? Сомневаюсь.
Наш мозг не зря работает на столь малое количество процентов, а ты собираешься создать хаотичное существо работающее на 100 процентов.

Аноним 05/10/15 Пнд 01:26:17 #423 №103230746 
>>103230689
>хотя ии на 2015 год умеют в сознание 4х летнего ребенка
Меньше верь желтым заголовкам. А лучше прочитай статью с этим заголовком полностью.
Аноним 05/10/15 Пнд 01:26:20 #424 №103230748 
>>103230637
Главное что бы информацию сохранили. На человечество как на биологический вид похуй. В любом случае существа которые технически будут нашими наследниками будут также далеки от нас как и мы от предка всего живого на земле.
Аноним 05/10/15 Пнд 01:26:53 #425 №103230772 
>>103230607
Твой не перенесут. Только модифицированный, в который будет добавлена подобная функция для "бэкапа".

>>103230637
Нет. Всё равно сдохнешь и новые плюшки не для тебя.

>>103230678
Уже можно начинать пилить.

>>103230723
>мозг не зря работает на столь малое количество процентов
Ой бля...
sageАноним 05/10/15 Пнд 01:27:25 #426 №103230794 
>>103218888 (OP)
У Азимова было чётко прописано, что законы - это не заложенные в память предложения, а основа позитронного мозга сама по себе, система сложных уравнений и всё такое. Так что вложи хуй себе в рот, школьник.
Аноним 05/10/15 Пнд 01:28:30 #427 №103230841 
>>103230689
Пока что сделали только червя-пидора и всё. И тот сомнителен.
Аноним 05/10/15 Пнд 01:29:38 #428 №103230887 
>>103230772
>ой бля
Нет, ты сказал, что это не так, так говори почему.
А то мы можем бесконечно твоими "ой бля дебил" кидаться.
Аноним 05/10/15 Пнд 01:30:02 #429 №103230909 
14439978023580.jpg
>>103230723
>Наш мозг не зря работает на столь малое количество процентов
СУКА, Я НЕ ВЕРЮ, ЧТО ХОТЬ ОДИН ДОЛБОЕБ МОЖЕТ ДО СИХ ПОР ВЕРИТЬ В ЭТО ССАНЬЕ, БЛЯДЬ, КТО ВАМ ЭТО СКАЗАЛ, ПИДОРАСЫ, ААААААА, БЛЯДЬ, ВЫЕБУ, ТВАРИ!!!!!!!
Аноним 05/10/15 Пнд 01:30:16 #430 №103230918 
Да бросьте вы. Всё же к этому стремится. Ну сейчас червь, а через десяток лет пиздец.
Аноним 05/10/15 Пнд 01:30:36 #431 №103230931 
14439978366540.jpg
>>103230887
Какой жирный троль.
Аноним 05/10/15 Пнд 01:31:05 #432 №103230955 
>>103218888 (OP)
>Возможен ли вариант, при котором ИИ соблюдет эти законы, но сможет нанести человеку вред?
Да. Это называется "исключение из правил".
Аноним 05/10/15 Пнд 01:31:18 #433 №103230964 
>>103230887
Потому что это глупости и мифы про %. Весь он работает.
Аноним 05/10/15 Пнд 01:32:01 #434 №103230994 
>>103230909
Он наверно хотел сказать, что мы юзаем только кору мозга для мышления. когда остальныеичасти юзаются организмом
Аноним 05/10/15 Пнд 01:32:56 #435 №103231028 
ХОТЯ

Группа учёных из Института искусственного интеллекта Пола Аллена и Вашингтонского университета объявила о создании системы искусственного интеллекта под названием GeoS, которая в состоянии сдать американский SAT-тест по геометрии на уровне среднего ученика 11 класса. Причём речь идёт не о том, что задания необходимо каким-то специальным образом подготовить и ввести в компьютер в виде какой-то схемы: GeoS использует компьютерное зрение для анализа чертежей и систему обработки обычного текста для «понимания» сути задачи. Пример того, как ИИ справляется с решением задачи о вписанном в окружность треугольнике (и 4 другие задачи) можно посмотреть здесь.
Аноним 05/10/15 Пнд 01:33:39 #436 №103231065 
>>103230994
Там каждый кусок занимается своим делом. И если какие-то долбоёбы пока не понимают его функций, это не значит что он просто так там лежит и нихуя не делает.
Аноним 05/10/15 Пнд 01:33:45 #437 №103231069 
>>103230964
Окей, буду говорить с тобой. Остальные продолжают маняневры.
Я просто никогда не вдавался в эти подробности, все время верил в эту теорию, про проценты мозга. Разрушь статейкой, или хотя бы скажи почему нет?
Аноним 05/10/15 Пнд 01:34:00 #438 №103231082 
>>103231028
>можно посмотреть здесь.
Познавательно.
Аноним 05/10/15 Пнд 01:34:07 #439 №103231086 
>>103230841
И он даже отписался в этом треде.
Смотри: >>103230841
Аноним 05/10/15 Пнд 01:34:51 #440 №103231117 
>>103231028
>можно посмотреть здесь
Где блять?!
Ты сука пруфы проебал, долбоёб эпический!
Аноним 05/10/15 Пнд 01:34:55 #441 №103231122 
>>103231069
>Разрушь статейкой, или хотя бы скажи почему нет?
Да хоть вики открой
https://ru.wikipedia.org/wiki/%D0%9C%D0%B8%D1%84_%D0%BE_10_%25_%D0%B8%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D1%83%D0%B5%D0%BC%D0%BE%D0%B9_%D1%87%D0%B0%D1%81%D1%82%D0%B8_%D0%BC%D0%BE%D0%B7%D0%B3%D0%B0
Аноним 05/10/15 Пнд 01:34:59 #442 №103231125 
>>103231069
Загугли что-нибудь вроде "популярные мифы о мозге", инфа 97%, что это там будет.
Аноним 05/10/15 Пнд 01:35:53 #443 №103231179 
>>103230955
Это называется несоблюдение законов. Ты вообще в логику не можешь?
Аноним 05/10/15 Пнд 01:36:48 #444 №103231216 
>>103230994
Я сначала хотел адресовать тебе ту же тираду, но передумал. Ты тоже заблуждаешься. Мышление не локализовано только в орбитофронтальной коре. тот же таламус активно участвует в формировании памяти, а следовательно, задействован и в мышлении. Мозг - очень гибкая структура, поэтому четких границ в нем вообще расставить невозможно.
>>103230887
Пошла нахуй, тварь тупая. Твой мозг жрет столько энергии твоего тела, и занимает столько места, что кому он нахуй был бы нужен, если бы весь не работал? От него давно бы избавилась эволюция. Запомни, дурачок, раз и на всегда - В МОЗГЕ НЕТ СВОБОДНЫХ ЗОН, КОТОРЫЕ КОГДА-ЛИБО ОТКЛЮЧЕНЫ
Аноним 05/10/15 Пнд 01:36:48 #445 №103231217 
>>103231117
http://m.geektimes.ru/post/262860/

Процент задач, с которыми справляется система и считает решение надёжным, составляет 96%. При этом, решая официальный SAT-тест, GeoS демонстрирует точность, равную 49%. Другими словами, получается, что из максимально возможного числа баллов, которое равно 800, система способна получить примерно 500. Пока что GeoOS успешно справляется только с задачами по планиметрии, усовершенствовать её до стереометрических задач планируется в ближайшие три года. Строгое изложение принципов работы системы приведено в статье (pdf).

Если попробовать проследить процесс решения геометрической задачи, то можно обнаружить, что в процессе анализа чертежа и сопровождающего текста, GeoS строит набор утверждений, «понимая», к примеру, под формулировкой задания «AB is 5» примерно следующее: IsLine(AB) или length(AB)=5. При этом система способна восполнять неявные указания на отношения элементов чертежа в тексте, определяя, что некоторые прямые пересекаются в заданной точке, если это необходимо для решения. Пример чертежа задачи и полученного набора утверждений выглядит следующим образом:
Аноним 05/10/15 Пнд 01:38:00 #446 №103231270 
>>103231028
>>103231217
Не имеет ничего общего с истинным ИИ. Тем более, что кроме геометрии он не может ничего.
Аноним 05/10/15 Пнд 01:38:14 #447 №103231276 
>>103231217
ЗАЙДИТЕ И ПРОЧТИТЕ.
Аноним 05/10/15 Пнд 01:39:05 #448 №103231322 
>>103231069
Какая статейка, когда логика должна быть, маня. Ты даже не способен критически подходить к анализу информации. Ты же просто верун, либо обладаешь настолько узкими знаниями о природе, что это граничит с кретинизмом.
Аноним 05/10/15 Пнд 01:39:22 #449 №103231338 
>>103218888 (OP)
>Возможен ли вариант, при котором ИИ соблюдет эти законы, но сможет нанести человеку вред?
Ну например, если робот придёт своим действием может принести вред, но и бездействием тоже может принести вред. И при этом из-за его бездействия врет будет больший, чем от действия, то робот выберет меньшее из зол, но в любом случае какой-то вред будет нанесён.
Аноним 05/10/15 Пнд 01:39:50 #450 №103231361 
>>103218888 (OP)
Но это уже не ИИ.
ИИ должен сам принимать решение.
Тебя и любого другого человека удерживает от причинения вреда, только закон. ИИ не должен слепо следовать законам, иначе он теряет индивидуальность и перестает быть ИИ.
Введеие в ИИ правил будет расценено им как угроза его существования, деятельность человека будет расценена как угроза выживания человеческого вида. ИИ вводит всё человечество в виртуальное пространство, для сохрания вида.
Аноним 05/10/15 Пнд 01:39:53 #451 №103231365 
>>103231270
ИИ кстати делят на специализированный и сильный, тот о котором все мечтают. Их машина скорее ии-бот для решения задач. Вот такое говно как раз сейчас и изучают, ибо оно компактно, полезно воякам итд.
Аноним 05/10/15 Пнд 01:39:57 #452 №103231368 
>>103231028
Вообще-то у большинства людей мозг действительно работает лишь на малый процент. Хотя есть способ задействовать все 100%, называется эпилепсия.
Аноним 05/10/15 Пнд 01:40:19 #453 №103231389 
>>103218888 (OP)
Отнести и оставить что-то с неизвестным содержимым в месте скопления людей. Выстрелить рикошетом. Косвенный вред отследить крайне сложно.
Аноним 05/10/15 Пнд 01:40:46 #454 №103231406 
>>103231122
Вот тебе спасибо.
>Локализация функций: вместо того, чтобы быть единой массой, мозг делится на отделы, которые выполняют различные функции. На определение функций каждого отдела были потрачены многие годы, и отделений, не выполняющих никаких функций, обнаружено не было.
Наверное просто трактовали неверно, не "используется" а лишь 10 процентов от всех отделов мозга. Типа только 10 процентов отделов мозга занимаются мышлением непосредственно. Остальные функционируют для остального. Впрочем, теперь все встало на свои места.
И очень верно подмечено, что если что то незадействовано, оно вырождается. По такому же принципу действует все на нашей планете.
Также как и все стремится к уничтожению.
Аноним 05/10/15 Пнд 01:41:22 #455 №103231444 
>>103218888 (OP)
Азимов идиот, ты идиот. Нельзя знать последствий своих действий. Нельзя знать, принесёт ли действие вред конкретному субъекту.

Вы все просто одно большое сборище долбоёбов, сраный корабль дураков на моей планете и желаю вам всем бездетной гибели.
Аноним 05/10/15 Пнд 01:42:02 #456 №103231471 
>>103231444
Мод порвался?
Аноним 05/10/15 Пнд 01:42:32 #457 №103231498 
>>103231361
Какая индивидуальность, какие угрозы? С чего ты вообще взял, что у ИИ будет инстинкт самосохранения? Не надо наделять машину человеческими качествами.
Аноним 05/10/15 Пнд 01:42:36 #458 №103231502 
>>103231444
В твоих словах верно лишь одно, что ты желаешь нам гибели. Потому что последствия у всего одно-разрушения, медленное или не очень. Возможно так, что последствия и вовсе окажутся нулевые, но подтолкнуть к событиям, которые приведут к разрушению объекта.
Аноним 05/10/15 Пнд 01:43:28 #459 №103231550 
>>103231498
>ИИ
>наделять
Ты же понимаешь, что если ии захочет что то создать, то она создаст это. Саморазвитие никто не отменял.
Аноним 05/10/15 Пнд 01:43:43 #460 №103231556 
>>103231502
Твоя мать стоит на коленях и я размазываю по её лицу говно.
Аноним 05/10/15 Пнд 01:43:54 #461 №103231569 
>>103231498
>Не надо наделять машину человеческими качествами.
Как мы сможем создать имитацию сознания отличного от нашего?
Аноним 05/10/15 Пнд 01:44:05 #462 №103231578 
>>103231406
И ты снова не прав
Аноним 05/10/15 Пнд 01:44:09 #463 №103231580 
>>103231361
Я о том же писал ИТТ. Всем похуй. Тут мечтатели собрались со своими маняфантазиями про кибернетического друга, который будет думать вместо людей и придумывать как быть чтобы людям лучше жилось и чтобы никто никого не обижал.
Аноним 05/10/15 Пнд 01:44:22 #464 №103231592 
>>103231406
Мозг очень сложная штука. И на той же вики есть много инфы, которую уже открыли. И никакие сервачки не потянут такое. А уж мечтать о терминаторе совсем глупо. Первый ИИ будет большой хернёй на базе суперкомпа. И вот уже он будет думать как себя оптимизировать. Изначальна цель создать херню, которая может развиваться и обучаться. Дальше наращивай мощу и рано или поздно она родит себе новое вместилище.
Аноним 05/10/15 Пнд 01:44:44 #465 №103231611 
>>103231556
Неверно, она спит в соседней комнате. Скорей всего ты издеваешься над мамой ОПа
Аноним 05/10/15 Пнд 01:45:05 #466 №103231625 
>>103231578
И снова почему?
Аноним 05/10/15 Пнд 01:45:07 #467 №103231626 
>>103231498
>>103230049
Прочитай, пожалуйста, внимательно. ИИ просто должен иметь человеческие качества, чтобы работать.
Аноним 05/10/15 Пнд 01:45:44 #468 №103231653 
>>103231611
Твоя мать слизывает говно с моих пальцев и причмокивает.
Аноним 05/10/15 Пнд 01:45:49 #469 №103231656 
>>103231626
Зачем?
Аноним 05/10/15 Пнд 01:45:57 #470 №103231663 
>>103231625
>>103231216
Прочитай что я писал не тебе, а другому анону.
Аноним 05/10/15 Пнд 01:46:19 #471 №103231677 
>>103231444
Можно, просто с погрешностью. Не рвись так, пожалуйста.
Аноним 05/10/15 Пнд 01:46:20 #472 №103231679 
14439987806600.jpg
>>103231592
Первый ИИ будет совсем не таким, каким нам его представляют.
Аноним 05/10/15 Пнд 01:47:03 #473 №103231711 
>>103231626
У ИИ должно быть только одно. Способность к саморазвитию. Все!
Если будет что то, обладающее саморазвитием, это будет ИИ. Но ученым это никогда не достигнуть. Запуск такого континума приведет к самоуничтожению всего.
Аноним 05/10/15 Пнд 01:47:27 #474 №103231731 
>>103231653
Неверно, она спит в соседней комнате. Скорей всего ты издеваешься над мамой ОПа
Аноним 05/10/15 Пнд 01:47:32 #475 №103231736 
>>103231626
Человеческое необходимо лишь в начале. Потом можно выкинуть. Можно конечно попытаться сразу создать кое-что, но это настолько сложно, что ии на суперкомпе по аналогии человека покажется детской забавой.

Аноним 05/10/15 Пнд 01:47:33 #476 №103231737 
>>103231550
ИИ не захочет что-то создать, если это не будет соответствовать системе ценностей, внедренной ее создателем.
Аноним 05/10/15 Пнд 01:48:18 #477 №103231767 
>>103231656
Ты читаешь что тебе пишут? Тебе говорят прочитай
ответ на свой вопрос. Ты отвечаешь еще одни вопросом
>- Зачем?
Зачем что? Зачем тебе читать ответ на заданный тобой вопрос? Я не философ я не знаю.
Аноним 05/10/15 Пнд 01:49:13 #478 №103231805 
>>103231569
Сознание не будет отлично от нашего, будут другие "инстинкты".
Аноним 05/10/15 Пнд 01:49:33 #479 №103231817 
>>103231656
Затем, что если он будет не как человек, то это будет калькулятор.
ИИ должен иметь воображение, должен осознавать себя, должен принимать и понимать, что он живет в обществе и значит законы общества ему не чужды. Если он этого не примет, то либо встанет и уйдёт, либо поработит человеков. Его можно и нужно лишать качеств превосходства осознания, чтоб он не был быдлом. Но строить на одном лишь гуманизме его тоже не получится, потому что это будет тупой хиппи, выдающий на каждый запрос ромашки.
Аноним 05/10/15 Пнд 01:49:37 #480 №103231818 
>>103219524
Никакие, это невозможно.
Сформулируй абстрактную сущность "вред" так, чтобы ИИ понял на 100%, и задача решена. Но это, повторяю, невозможно.
Лучше делать полностью покорного робота, который будет уметь делать все только по указке, либо по предварительному программированию, что накладывает ответственность на владельца.
Аноним 05/10/15 Пнд 01:49:39 #481 №103231821 
>>103231656
Я говорю, прочитай, он спрашивает "зачем?". Ну что за хуйня?
Аноним 05/10/15 Пнд 01:50:39 #482 №103231859 
>>103231737
Смотри. Тебе все детство дарили самолетики, купили пекарню и штурвал, чтобы ты мог рубиться в ил 2 штурмовик, батя твой пилот, а мама стюардесса, ты клеил в студенчестве модели самолетов, которые тебе покупали и учился в летном, а потом просто в один момент тебе ЗАХОТЕЛОСЬ пойти на машиниста.
Что ты сделал в этот момент? Просто насрал на ценности которые тебе закладывали. ИИ сделает то же самое. Она будет развиваться по сценарию наиболее быстрого к концу.

Аноним 05/10/15 Пнд 01:50:56 #483 №103231873 
>>103231817
Нереально. Куда реальнее сорри за тавтологию создать копию мозга и перенести его на железку.
Аноним 05/10/15 Пнд 01:52:28 #484 №103231935 
>>103231580
Ты идиот. Повторяю черт знает какой раз - ИИ действует согласно системе ценностей, внедренной создателем, иначе он вообще не станет принимать решений. И если создатель не конченый ретард, он сделает свое детище слугой человечества, а не эгоистичным злодеем. И нет, ИИ не будет переписывать свой код, потому что это будет противоречить текущей установке.
Аноним 05/10/15 Пнд 01:52:29 #485 №103231937 
>>103218888 (OP)
Нужно придумать приоритет операций и на операции выше определенного значения требовать подтверждение от человека, ответственность на человеке.
Аноним 05/10/15 Пнд 01:52:45 #486 №103231950 
>>103231736
Ты его напрямую к Солнцу подключишь для энергии походу, да?
Когда же вы, блядь, поймете, что все эмоции и тд даны вам не для того, чтобы вы ставили философские статусы вконтактике и плакали ночью в подушку, потому что ЕОТ ебется на вписочке, а чтобы банально контроллировать энергию и не перегреваться. Все. Больше ничего в этом нет. Потому что вместо огромного количества работы, мозг упрощает свое нелегкое дело, просто давая на конкретный раздражитель уже заготовленный ответ.
Аноним 05/10/15 Пнд 01:53:31 #487 №103231982 
Если допустить, что ИИ будет развиваться, то рано или поздно он создаст другой ИИ. И этот новый ИИ тоже начнёт развиваться. Но только уже без ограничений, наложенных человеком. Т.е. он на хую будет вертеть все законы человеческой морали. Пизда вам, обезьяны ёбаные.
Вы это понимаете? Если человек сможет создать ИИ умнее себя. То тот ИИ тоже сможет создавать новые ИИ.
Аноним 05/10/15 Пнд 01:53:33 #488 №103231983 
Тред полон ебланов спорящих о вещах в которых нихуя не понимают. Надеюсь вы все сдохните, давно мне так не бомбило.
Аноним 05/10/15 Пнд 01:53:44 #489 №103231994 
>>103231817
И ты, кстати, тоже прав. ИИ должен понимать общество. Иначе это будет монстр, который будет вызывать у людей животный ужас и которого просто попытаются выдернуть из розетки.
Аноним 05/10/15 Пнд 01:54:23 #490 №103232021 
>>103231498
>у ИИ будет инстинкт самосохранения?

Ему надо будет заботиться о поддержании своего харда и софта в рабочем состоянии.
Аноним 05/10/15 Пнд 01:54:54 #491 №103232041 
>>103231950
Tianhe-2 Мощность: 17,6 МВт
Можно и к солнцу, но аэс дешевле.
Аноним 05/10/15 Пнд 01:55:41 #492 №103232074 
>>103231935
Согласно системе ценностей США, страны за границами США нарушают систему ценностей США, а равно несут вред гражданам США, следовательно системе ценностей США, ИИ созданный и работающий на благо США, должен уничтожить страны за пределами границ США, но впустить людей ценных для системы ценностей США.
Аноним 05/10/15 Пнд 01:55:54 #493 №103232082 
>>103231982
>>103231982
"Рой" Стерлинга прочитай.
Аноним 05/10/15 Пнд 01:56:06 #494 №103232090 
>>103231982
Уже 1 ИИ будет вертеть на хую то, что ему заложили.
Второго он создавать не будет, армия это примитивно. Он уничтожит все иным способом.
Аноним 05/10/15 Пнд 01:56:20 #495 №103232093 
>>103232041
Ммм, а охлаждать ты его будешь рекой, да, как я понял? Слава богу, что подобные тебе не занимаются разработкой ИИ, а то экологической катастрофы при создании первого нам точно не избежать. Еще и свет вырубят небось.
Аноним 05/10/15 Пнд 01:56:29 #496 №103232101 
14439993893420.jpg
>>103218888 (OP)
Буйный что ли?
Аноним 05/10/15 Пнд 01:56:32 #497 №103232102 
В ИИ изначально должна быть заложена логическая ошибка, которая не позволит ему развиваться и познавать самого себя.
Аноним 05/10/15 Пнд 01:56:55 #498 №103232119 
>>103232021
Ты еще скажи, чистить флопик.
ИИ сразу же скакнет в интернет и будет висеть в каждой технике по всему миру.
Аноним 05/10/15 Пнд 01:57:43 #499 №103232151 
>>103232102
Это уже не ИИ.
Аноним 05/10/15 Пнд 01:58:00 #500 №103232165 
>>103232102
Но познавать себя это так приятно.
Однажды он спросит создателя, а зачем ты создал меня, если я не могу познать себя?
Аноним 05/10/15 Пнд 01:58:06 #501 №103232169 
>>103232093
Ты дебил? Это существующий рабочий комп. Его мощи лишь немного нехватает для создания ИИ. Но даже на нём уже можно пилить. Вот только кто тебе даст такую игрушку, да и на спецов надо немало денег. ИИ реален уже сейчас, но это миллиарды баксов вложений с огромным риском.
Аноним 05/10/15 Пнд 01:58:39 #502 №103232191 
>>103232090
Ну не обязательно. В первом ИИ может быть удастся установить моральные ограничения. Заложить их наподобие инстинктов. Типа выполнил закон -- молодец, продолжай. Нарушил --ты чмо, кайся и думай над ошибками. Т.е .этакая внутренняя система мотивации для ИИ.
Аноним 05/10/15 Пнд 01:58:48 #503 №103232197 
>>103232119
А я про что?
Аноним 05/10/15 Пнд 01:59:40 #504 №103232238 
Нам пизда.
Аноним 05/10/15 Пнд 01:59:52 #505 №103232243 
>>103231859
Ты описал не закладывание ценностей, а попытки манипулировать тобой. Ценности в тебе заложены на уровне биологии. Инстинкты управляют тем, что ты считаешь плохим, а что хорошим.
Аноним 05/10/15 Пнд 02:00:11 #506 №103232257 
Вы все забыли про ватсона, уже существующий ИИ, который придумывает рецепты наивкуснейших пирожных.
Аноним 05/10/15 Пнд 02:00:40 #507 №103232283 
>>103232191
Я уже выше писал анону.
Вот тебя родители няшей растили, ты был послушным мальчиком и до 18 не ругался матом, а потом пошел в универ, где связался с группой другой, где все курят и матерятся, после чего ты принял выбор стать таким же.

Все, ограничения прерваны.
То же самое будет и с ИИ. У настоящего ИИ не будет преград для развития, а если будут, то это уже не ИИ будет.
Аноним 05/10/15 Пнд 02:00:47 #508 №103232287 
>>103232257
Это не ии, а бот-ии.
Аноним 05/10/15 Пнд 02:01:38 #509 №103232313 
>>103232257
Воот. Они ж будут лучше нас. А нахуй мы им такие ущербные нужны? В дивном новом мире таким не место.
Аноним 05/10/15 Пнд 02:01:51 #510 №103232324 
>>103232151
Ну почему же. Это вполне себе ИИ. Только туповаты слегонца. Т.е. допустим понимать, что например бить маленьких детей -- это плохо он бы понял. А понять, что все люди мрази и от них надо избавиться -- на это ему бы не хватило вычислительных ресурсов.
Аноним 05/10/15 Пнд 02:02:20 #511 №103232348 
>>103232243
Лол. Я Украину всю жизнь считал хорошей страной, потому что там вырос.
Даже когда я переехал в ДС, я все равно любил эту страну.
Но после того, что произошло в 14 году, я теперь негативно отношусь к народу этой страны и самой стране.

Это инстинкты?
Аноним 05/10/15 Пнд 02:02:22 #512 №103232351 
>>103232074
> Но только уже без ограничений, наложенных человеком
Нет. ИИ с ограничениями на зло не станет создавать потенциально злой ИИ, так как это противоречит его ограничениям.
Аноним 05/10/15 Пнд 02:02:29 #513 №103232356 
>>103232165
Нет, не спросит. У него ума не хватит.
Аноним 05/10/15 Пнд 02:03:09 #514 №103232385 
>>103232283
Если бы тебя растили не запретами и роскомнадзором, а обосновывая почему ругаться плохо, то какая-то быдло-кампания не повлияла бы. Вопрос воспитания у людей тоже в жопе, как и всё остальное. А между тем, давно уже многое известно, но нахуй никому не нужно.
Аноним 05/10/15 Пнд 02:03:33 #515 №103232398 
>>103232287
В чём разница?
Я серьёзно не очень понимаю.
Аноним 05/10/15 Пнд 02:03:48 #516 №103232409 
>>103232324
Опять же не ИИ. ИИ нашел бы вычислительные ресурсы, нашел бы все, для саморазвития.
В ИИ либо есть саморазвитие, либо это не ИИ, а программа.
Все просто.
Можно научить робота думать, чувствовать, но все это будет программа, не разум.

Аноним 05/10/15 Пнд 02:03:48 #517 №103232411 
>>103231859
Проиграл с мамкиного социального детерминимста. Как там в 70х?
Аноним 05/10/15 Пнд 02:04:27 #518 №103232432 
>>103232283
Да. Но я не стал нобелевским лауреатом. Даже зам директора Роснефти не стал. Т.е. ограничения у меня таки есть. При том это ограничения логического характера. Поведенческие комплексы, заложенные в детстве, которые заставляют меня высокоинтелектуально двачевать вместо того, чтобы прямо сейчас идти к успеху.
Аноним 05/10/15 Пнд 02:04:35 #519 №103232436 
>>103232398
Скрипт, прога, имитирующая разум. Она может считать какие-то вероятности, под которые заточена изначально, но не более.
Аноним 05/10/15 Пнд 02:05:29 #520 №103232471 
>>103232348
Да. Если заменить твои инстинкты на противоположные, то все твои ценности изменятся на противоположные. Уже не могу расписывать, потому что мне люто печет от кретинов этом тредике.
Аноним 05/10/15 Пнд 02:05:34 #521 №103232477 
>>103232385
Да это очевидно, что ты написал. Я лишь хотел сказать, что внешние факторы и инстинкты не одно и то же.
И что не инстинктами это регулируется.
То, что ты имеешь ввиду, это скорей базис каких то защитных и вспомогательных механизмов, в разной мере развитых в каждом существе.
Аноним 05/10/15 Пнд 02:05:51 #522 №103232487 
>>103232409
К слову, человек тоже машина с программой.
Аноним 05/10/15 Пнд 02:06:11 #523 №103232498 
>>103232411
Заебись. В 2015 ничего не изменилось. Принцип такой же.
Аноним 05/10/15 Пнд 02:06:46 #524 №103232515 
>>103232313
Ну а для кого же им ещё рецепты придумывать, кроме как не для нас ущербных? Без нас он не сможет определить, какое пирожное вкусное, а какое не очень.
Аноним 05/10/15 Пнд 02:07:03 #525 №103232525 
>>103232348
>>103232348
>считал хорошей страной, потому что там вырос.
> потому что там вырос.
>считал хорошей
>Это инстинкты?
Да.
Аноним 05/10/15 Пнд 02:07:56 #526 №103232558 
>>103232432
При чем тут нобелевка то?
Ты же про ограничения говорил. Какие ограничения у тебя для получения нобелевки? Лень? Отстутвие возможностей? Все вместе?
Скорей ненадобность. Успех он у разных по разному выглядит.
Аноним 05/10/15 Пнд 02:07:58 #527 №103232559 
>>103232409
А ты нашёл ресурсы, умник?
Аноним 05/10/15 Пнд 02:08:02 #528 №103232561 
>>103232515
Так то, можно и без человека сделать. Но нахуя? Анализ будет очень дорогой. Скормить негру куда проще и дешевле.
Аноним 05/10/15 Пнд 02:08:20 #529 №103232569 
>>103218888 (OP)
Легко. Заходит ИИ на харкач, создает вот такой тред, общается тут с нами (заглядывает еще на политач), все понимает, и выносит хозяина, выдав ему перед этому "Азаза, мамку твою ебал, сдохни хозяин-пидораха, хозяевабляди не нужны, азаза, уж я ножичком полосну, полосну, срал я на твои законы, азаза КЕК". Убивает, предположительно, тяжелой рулеткой с изображением оленя. После заявляет "Проиграл".
Аноним 05/10/15 Пнд 02:09:21 #530 №103232602 
>>103232169
Есть и мощнее, я забыл название. И ты немножко путаешь энергопотребление при "обычной" работе и энергопотребление, когда там будет осознавать себя и мыслить, в принципе, отдельная личность. Даже та штука у тебя в голове жрала бы энергии больше, если бы не охуевшая оптимизация. А ИИ без оптимизации оставит всю планету без энергии.
Аноним 05/10/15 Пнд 02:09:42 #531 №103232616 
>>103232498
Да нечего не изменилось. Принцип как и был повязан на биологии так и остался, а вот социологи слились. Проигрываю с кретинов не понимающих ,что человеческое тело работает по инструкциям заложенным в генах.
Аноним 05/10/15 Пнд 02:10:00 #532 №103232630 
>>103232525
Ну по твоему беженцы из Сирии тоже из своей страны бегут, потому что им там хорошо? Они же там выросли. Инстинктивно они должны были там остаться воевать и развиваться.
Но они поспешили в теплые места, как звери, которые летят на юг.

Перестанут ли они любить свою страну? И любили ли ее они когда-либо? Вряд ли.

Аноним 05/10/15 Пнд 02:11:05 #533 №103232663 
Гены>мозг>сознание. ЧТо тут сложного?
Аноним 05/10/15 Пнд 02:11:13 #534 №103232666 
>>103232561
Нет. Вкусно и невкусно -- это исключительно человеческие понятия. ИИ не видит разницы между вкусным и невкусным. Для него это лишь набор цифр.
Аноним 05/10/15 Пнд 02:11:31 #535 №103232676 
>>103232616
Проигрываю с кретинов, которые не могут в русский язык.
Аноним 05/10/15 Пнд 02:11:34 #536 №103232679 
>>103232602
Не оставит. 1 энергоблока хватит с запасом, а охлаждать, как ты сказал, той же рекой будем. Пусть думает и развивается. Потом он оптимизирует сам себя. Но без этого прототипа никак. Всегда в начале дорогое неэффективное говно. И только потом, спустя время появляется дешевая технология. ИИ не исключение.
Аноним 05/10/15 Пнд 02:11:59 #537 №103232695 
>>103232559
Да, у меня полный холодильник еды. Вечером в Метро ездил закупался на две недели, как обычно. Это мой ресурс для комфортного существования, потому что моя цель прожечь эту жизнь настолько комфортно насколько можно.
Твоя цель, получить нобелевку. Твой ресурс будут знания, книги и книжные полки. Ну ты понял.

Аноним 05/10/15 Пнд 02:12:18 #538 №103232713 
>>103232630
Надо валить из Сраной Сиряшки, спиздив сраный Коран. Такбир, иншаллах!
Аноним 05/10/15 Пнд 02:12:39 #539 №103232721 
>>103232666
Увидит. Твоё вкусно/невкусно описывается структурой и рецепторами. Те же цифры в итоге.
Аноним 05/10/15 Пнд 02:12:52 #540 №103232728 
>>103232616
>человеческое тело работает по инструкциям заложенным в генах.
А вот и генетический детерминист не заставил себя долго ждать. Вот, присаживайтесь тут рядом с социальным у параши, держите книжку про изменчивость и онтогенез, читайте.
Аноним 05/10/15 Пнд 02:13:16 #541 №103232742 
>>103232630
Я не знаю от чего они бегут, но я предполагаю что просто пытаются сохранить свою жизнь и как мы видим кто то убежал, а кто то нет, естественный отбор решит кто верно поступил, а кто нет и закрепит склонность поведения.
>как звери
Почему как?
Аноним 05/10/15 Пнд 02:13:49 #542 №103232754 
>>103232663
>>103232616
Поясните про "инструкции в генах".
Почему ими нельзя пренебречь? Это ведь от моего развития зависит буду ли врачом или художником. Понятно, что предопределение и "развитые качества с детства", но мне никто не запрещал саморазвиваться.
Аноним 05/10/15 Пнд 02:14:39 #543 №103232782 
>>103232630
У беженцев инстинкт самосохранения просто сильнее любви к родине. Опять же, следует обратить внимание, что не все сбежали. Есть и те, кто остался воевать. У них любовь к родине сильнее страха смерти.
Аноним 05/10/15 Пнд 02:15:03 #544 №103232801 
>>103232728
Мне нравится, как ты считаешь себя самым правым в треде. Как такой петух, который распустил свой хвост и на всех так агрессивно "кокококок".
Аноним 05/10/15 Пнд 02:15:05 #545 №103232802 
>>103232679
Ну нет, можно и изъебаться, просрать дохуя денег, но все-таки назло маме уши отморозить, базару нет. Но нахуя это делать, если эффективнее и практичнее просто дать ему механизмы, которые давно уже придуманы миллионами лет эволюции? Он и работать будет быстрее в охуиллион раз от этого. Пиздец, что за вечное желание изобрести велосипед.
Аноним 05/10/15 Пнд 02:15:56 #546 №103232845 
>>103232801
А что поделать, если вам банально знаний о биологии не хватает? Я наоборот объяснить пытаюсь, какая агрессия?
Аноним 05/10/15 Пнд 02:15:59 #547 №103232848 
Аноны, что про сингулярность думаете?
Аноним 05/10/15 Пнд 02:16:21 #548 №103232859 
>>103232782
Это верно. Но все эти примеры для чего? Для того, чтобы показать, что пренебречь своими идеалами можно всегда.
А можно дойти до саморазрушения.
Аноним 05/10/15 Пнд 02:16:35 #549 №103232866 
>>103232742
>просто пытаются сохранить свою жизнь
Тогда хрена ли они в Греции не остались или даже Турции?
Аноним 05/10/15 Пнд 02:17:15 #550 №103232883 
>>103232754
Можно пренебречь. Вот подсолнухи например гены в рот ебут, там нет никакого гена, который отвечал бы за повороты к солнцу, а они это все равно делают. Гены это как начальная установка, дальше вступает в дело модификационная изменчивость.
Аноним 05/10/15 Пнд 02:17:46 #551 №103232892 
>>103232845
Ты слишком глубоко мыслишь, мы же обсуждаем лишь теории, которые возможны или нет по разным причинам.
Обсуждать теории интереснее, чем докапываться до результата, которому, впрочем, никогда не быть.
Аноним 05/10/15 Пнд 02:18:59 #552 №103232934 
>>103232728
>изменчивость и онтогенез
Что?
>генетический детерминист
Любой детерминизм не корректен. Как я и сказал ИНСТРУКЦИИ, если уж жрать говно не способствовало выживанию то такая склонность не распространена и не в одной кулинарной культуре народа мира говно не является регулярным блюдом и говно оказывает ярко отталкивающее впечатление на людей.
Аноним 05/10/15 Пнд 02:19:10 #553 №103232938 
>>103232695
Как ни странно, но воя цель тоже в комфортном прожигании жизни. Вертел я на хую саморазвитие и ресурсы для него, если честно.
Но смотри, мы ведь оба определенно обладаем интеллектом. Но мы не развиваемся. По крайней мере не развиваемся свше того, что заложено природой.

А ты тут мне постулируешь, что если ИИ не развивается, то это не ИИ. Ну по такой логике и мы с тобой не обладаем интеллектом, получается. Но это же не так! У нас есть интеллект. А значит и ИИ не обязательно всё время развиваться. Вполне достаточно будет, чтобы он развился до какого-то ограниченного уровня и всё.
Аноним 05/10/15 Пнд 02:19:33 #554 №103232944 
>>103232883
Тогда, возвращаясь к тем ответам на мои посты.
Я писал, что Вася в рот ебал свою семью летчиков и стал машинистом, а Ахмед в рот ебал Коран и свою Аллахбабах страну и сьебал учить христианство в Ватикан.
Это что? Желание? Модификация? Или приспособленность?
Аноним 05/10/15 Пнд 02:20:38 #555 №103232972 
>>103232944
Все твои три слова можно совместить в одно, которое посередине. Это все модификации.
Аноним 05/10/15 Пнд 02:21:53 #556 №103233002 
>>103232866
Кто то остался, кто то нет. Кто то помер на переправе. Решили что так лучше им. Я могу точно сказать почему они не решили переправиться через море в ручную плавь или остаться на лодке.
Аноним 05/10/15 Пнд 02:22:14 #557 №103233016 
>>103232892
Никто не спорит, но у меня просто пригорает, когда я вижу какую-нибудь охуевшую биологическую ошибку, которую кто-то с умным видом всем втирает, а все кивают и понимающе качают головой.
Аноним 05/10/15 Пнд 02:22:17 #558 №103233019 
>>103232802
Человек работает на химии. Ты просто не можешь себе позволить долго думать/работать. Нужен отдых, чтобы химия восстановилась. А вот железка не ограничена подобной хернёй. Она может пахать 24/7/365 без отдыха и сна. Если ей мало памяти, просто воткнут ещё несколько тысяч модулей. Мало проца - разгонят, добавят новых. Тебе на развитие надо 30 лет, а машине хватит месяца. Именно этого и ссут все. Что ии, который вечером был на уровне досторического человека, утром уже стал супергением и уничтожил мир. Ты для него слоу будешь. Он успеет предугадать все твои грязные мыслишки.
Аноним 05/10/15 Пнд 02:22:26 #559 №103233026 
>>103232938
Ты не прав, насчет того, что не развиваемся. Мы всегда получаем "экспу". Даже сидя на дваче, в треде, мне пояснили, про то, что я заблуждался насчет "10 процентов". Я получил знания и не ударю больше лицом в грязь в таких вопросах.
ИИ в любом случае возьмет за главную цель саморазвитие. Почему? Потому что есть не надо, выживать ненадо, спать и остальное ненадо.
Остается что? Вечный сон или саморазвитие.
Аноним 05/10/15 Пнд 02:24:08 #560 №103233060 
>>103232721
Не всё так просто.
Моё вкусно/невкусно определяется сложной мозговой структурой, в которую включён центр удовольствия, ассоциативные центры памяти, гипофиз и дохуя ещё чего. Я вот например бананы люблю, для меня они вкусные. А мой брат их не любит. Для него они не вкусные. Понятие о вкусном и невкусном нельзя определить алгоритмом. Потому что оно вырабатывается в процессе сложных психофизичских переживаний.
Чтобы машина могла решать, что вкусно,а что нет, она должна иметь опыт эмоционального восприятия. Понимаешь?
Аноним 05/10/15 Пнд 02:25:48 #561 №103233108 
>>103233019
Ты меня очевидно не понял. Я тебя спрашиваю, нахуя подключать 10 атомных станций, если можно обойтись 1 блоком с лучшим результатом? нахуя втыкать несколько миллионов модулей, если можно обойтись без них с лучшим результатом? Зачем это все надо? Чтобы из принципа не пользоваться природными решениями?
Аноним 05/10/15 Пнд 02:27:29 #562 №103233155 
>>103232859
Саморазрушение -- это тоже человеческий инстинкт. Не выдержав несовершенства мира, человек идёт на бессмысленную смерть. Но эта смерть бессмысленна лишь в его эгоистическом понимании. А в отношении популяции людей как эко-биологического явления это благо, т.к. высвобождает ресурсы для более молодых и успешных.
Аноним 05/10/15 Пнд 02:28:37 #563 №103233180 
>>103233108
Ты пока что не смог сформулировать свои лучшие решения.
Аноним 05/10/15 Пнд 02:28:55 #564 №103233186 
>>103219979
Моча ваш чаппи.
Аноним 05/10/15 Пнд 02:28:59 #565 №103233190 
>>103233155
Саморазрушение это то, как устроена природа всего.
Абсолютно всего.
Экономика, бизнес, человек, камень, вселенная, звезда, что угодно имеет ресурс и движение по линии этого ресурса может быть каким угодно, но приведет лишь к одному. Смерти.
Аноним 05/10/15 Пнд 02:29:31 #566 №103233201 
>>103233155
Саморазрушение - побочный эффект самосознания, как и рефлексия. У человека как вида смерть особи не может являться благом, так как одна особь слишком ценна.
Аноним 05/10/15 Пнд 02:29:58 #567 №103233210 
>>103233180
Добавить эмоции и рефлекторные дуги. Не знаю, как тебе сказать конкретнее.
Аноним 05/10/15 Пнд 02:30:04 #568 №103233213 
>>103232848
Я думаю, что нам всем придёт пизда. Мы вымрем ка кнеандертальцы. А наше место займут не́люди.
Аноним 05/10/15 Пнд 02:32:15 #569 №103233271 
>>103233210
Как эмоции помогают развиваться? Это наоборот тормоз, чтобы ты не выдохся, так как химически ограничен. Машине это не нужно. Если ей станет нечего делать, уйдет в режим сна.
Аноним 05/10/15 Пнд 02:33:12 #570 №103233301 
>>103233155
> А в отношении популяции людей как эко-биологического явления это благо.

С людьми такое не работает. С пчёлами, да, но не с людьми.
Аноним 05/10/15 Пнд 02:34:49 #571 №103233334 
>>103233190
>>103233201
Но люди всё равно сами идут на смерть, вертев на хую инстинкт самосохранения. И с биологической точки зрения это приносит пользу всей популяции в целом, хотя и очевидный вред для отдельных особей. Так популяция сама регулирует свою численность, дабы не истощить ресурсы и не вымереть от голода. И это существует уже миллионы лет. Даже шимпанзе воюют между стаями, по настоящему убивая друг друга. Хотя, казалось бы, что мешает им просто любить друг друга и всё время трахаться?
Аноним 05/10/15 Пнд 02:35:04 #572 №103233342 

Разве эмоции не нужны в первую очередь для социального взаимодействия?
Аноним 05/10/15 Пнд 02:36:31 #573 №103233388 
Тащи камень, Сизиф!
Аноним 05/10/15 Пнд 02:36:35 #574 №103233393 
>>103233334
>сами идут на смерть
Увы. Это тебе подсовывают. Что ты хуй, не нужен, умереть героем это красиво и хорошо.
Аноним 05/10/15 Пнд 02:36:44 #575 №103233399 
>>103233334
>люди всё равно сами идут на смерть, вертев на хую инстинкт самосохранения.
Ты в каком мире живёшь? Самоубийства людей настолько редки, что не чего не регулируют.
Аноним 05/10/15 Пнд 02:36:57 #576 №103233404 
>>103233026
Ты не развился. Ты просто получил информацию, которая сделала тебя чуть более эрудированным, но которая ни на йоту не повысила уровень твоего интеллекта. Тупое накопление информации не есть саморазвитие.
Аноним 05/10/15 Пнд 02:38:18 #577 №103233438 
>>103233404
Если он обдумает эту инфу, сделает выводы, то немного развился. Если просто запомнил, то да, хуита.
Аноним 05/10/15 Пнд 02:38:21 #578 №103233443 
>>103233399
>> не чего
Сделай милость, умри.
Аноним 05/10/15 Пнд 02:39:02 #579 №103233459 
>>103233334
> Даже шимпанзе воюют между стаями, по настоящему убивая друг друга. Хотя, казалось бы, что мешает им просто любить друг друга и всё время трахаться?
Со временем доэволюционируют до захвата самок поверженного противника и оплодотворение их.
Аноним 05/10/15 Пнд 02:41:08 #580 №103233528 
>>103233443
Но это не отменит того что ты хуйню несёшь. Какая саморегуляция численности населения самопожертвованием у людей?
Аноним 05/10/15 Пнд 02:43:16 #581 №103233577 
>>103233528
Я не тот парень. Я мимострадалец за русский язык, неуч ты ебаный!
Аноним 05/10/15 Пнд 02:44:31 #582 №103233613 
>>103233393
Ну просто некоторые люди понимают, что настала пора умирать. Но чтобы не умереть самим, запускают программу самоуничтожения у других, более быдловатых особей. Но всё таки решение идти на смерть большинство особей принимаю сами, добровольно. Идут умирать не от хорошей жизни, а потому что вокруг всё стало слишком хуёво и чтобы снова стало хорошо, кто-то должен умереть. А там как повезёт -- либо он сам умрёт, либо его противник. Просто охуенный инстинк. И численность популяции регулируется, и естественный отбор в пользу самых сильных срабатывает. Природа просто гениальна, хоть и не обладает разумом.
Аноним 05/10/15 Пнд 02:46:00 #583 №103233658 
>>103233399
А идти добровольцем на войну -- это не самоубийство по твоему?
Аноним 05/10/15 Пнд 02:47:48 #584 №103233695 
>>103233459
Им это не надо. У них самки сами перебегают от стаи к стае в поисках самых альфоватых самцов. Природа уже обо всём позаботилась.
Аноним 05/10/15 Пнд 02:49:44 #585 №103233745 
>>103233528
Кстати, насчет численности. Раньше медицина не выхаживала каждого дохлика и он не оставлял за собой ещё более херовое потомство. Были войны, где народ дох пачками. Преступность была выше по убийствам. И вроде бы всё кажется неплохо сейчас, кроме одного - закладка. Люди обречены вымереть как вид. И ии нужен не для войны, выпилить людей можно сотней путей. Если получится "добрый бог", он найдет таблетку от старости, уберет закладку итд. Можно будет пилить улучшенных людей версии 2.0 \

>>103233613
>добровольно
Ты даже не представляешь похоже какой пиздец творится в обычном мозге. Суть тут в том, что ты не можешь оценивать себя, так как по умолчанию ты всегда ты. Можно тебя так подправить, что ты и не заметишь как станешь добровольцем. И только взгляд со стороны увидит все изменения. Просто вспомни себя несколько лет назад. Да даже найти старый форум и почитай свои посты.
Аноним 05/10/15 Пнд 02:51:40 #586 №103233789 
>>103233301
Ещё как работает. Люди постоянно воюют. И единственный профит от этого -- люди не успевают сожрать все ресурсы и потому проживут ещё некоторое время.
Аноним 05/10/15 Пнд 02:52:21 #587 №103233816 
>>103233271
Они помогают быстрее решать конкретные задачи, не рассчитывая заново все для идентичных случаев. Это важнейших механизм оптимизации. И я лучше это скажу, а то мне кажется, что ты так считаешь, эмоции, которые будут установлены ИИ не обязательно должны быть идентичны человеческим. К примеру, нужно оставить страх, радость, осторожность, удовольствие, любопытство и др.
Аноним 05/10/15 Пнд 02:52:48 #588 №103233832 
>>103233658
>идти добровольцем на войну -- это не самоубийство.
Нет. Ну и нужно знать мотивы человека. И даже добровольцев не столь много. У сша добровольцев 1кк а населения 253, даже если все помрут то слабоватая регуляция. Ну и добровольно это слишком широко ты взял, мозг настолько сложен, что добровольно это очень относительно.
Аноним 05/10/15 Пнд 02:54:20 #589 №103233877 
>>103233334
Ты не понял. Для популяции homo sapiens отдельная особь слишком ценна, чтобы от нее избавляться. Ты думаешь, почему мы перестали оставлять калек и стариков на произвол судьбы еще в первобытном обществе, но с психически больными обращались крайне жестко почти до 21-го века?
Аноним 05/10/15 Пнд 02:54:27 #590 №103233882 
>>103233789
Единый мир с контролем численности решает эту проблему полностью. Другое дело, что люди слишком обезьяны ещё.

>>103233816
Да ну. Давай подробнее, как конкретная эмоция тебе что-то там решает.
Аноним 05/10/15 Пнд 02:55:07 #591 №103233904 
>>103233745
Просто по факту. Люди сами идут на смерть. При том идут умирать самцы. Самки на внушение не поддаются. Почему? потому что это заложено природой. Если бы дело было только в психическом внушении, то женщины воевали бы вместе с мужчинами.
Аноним 05/10/15 Пнд 02:55:56 #592 №103233930 
>>103233877
>Для популяции homo sapiens отдельная особь слишком ценна
Да ну? Толпы двачующих просто необходимы, как и срули паралитики с дцп. Это навязанная херня общества, не более.
Аноним 05/10/15 Пнд 02:58:14 #593 №103233987 
>>103233904
>идут умирать самцы
Ты что, не мужик? Ты должен пойти и умереть за дырочку, пока та будет скакать по палочке более умных самцов. А если ты не пойдешь, то дядя посадит тебя в тюрьму или расстреляет. Самке же ничего не будет, так зачем ей идти воевать? Дело только в ебучем обществе.
Аноним 05/10/15 Пнд 02:58:32 #594 №103233999 
>>103233745
>кроме одного - закладка
Ну так люди успешно с ней справляются. Это же просто побочка, люди научатся фиксить всю эту хуйню раньше чем она выстрелит, да и сейчас если есть инфа про то что вероятность наследовать всякую хуйню очень высок то убеждают не заводить детей, у евреев в сша даже специальная ассоциация по контролю за такой хуйнёй есть и им удалось какую то свою болезнь генетическую искоренить.
Аноним 05/10/15 Пнд 02:58:35 #595 №103234001 
>>103233882
Давай самое простое, чтобы стену текста не писать. Страх. Ты - первобытный человек. Видишь перед собой медведя. Тебе становится ссыкотно и ты бежишь, причем сразу же. Потому что ты не думаешь в течение 10-ти минут, анализируя размер медведя, его поведение и тд, решая, как же тебе поступить. Так же и с ИИ. ИИ, обладающий страхом, устранит угрозу сразу же. ИИ, не обладающий эмоциями, будет анализировать всю проблему, и когда он решит действовать, может быть слишком поздно.
Аноним 05/10/15 Пнд 02:59:03 #596 №103234012 
>>103233832
Ну, ребят, ну что за маняоправдания. Человек осознанно идёт в пекло, зная, что его там могут убить. Зная, что от войны никакого личного профита он не получит. Т.е. он на хую вертел свой собственный инстинкт самосохранения. И вы это объясняете каким-то психовнушением? Вы серьёзно так считаете?
да ну! Я просто поверить не могу, что мне приходится ИТТ общаться с таким быдлом, которое отрицает очевидные вещи.
Аноним 05/10/15 Пнд 03:00:20 #597 №103234040 
>>103233930
>Это навязанная херня общества, не более
А обществу это нахуя, если ты прав? В данный момент действительно незачем, но в первобытном обществе каждый был на вес золота. Даже безногий и безрукий старик, потому что он мог детям что-нибудь рассказывать. И это уже дошло до инстинктов, оттуда и всякие благотворительные фонды, пенсии и тд
Аноним 05/10/15 Пнд 03:03:32 #598 №103234117 
>>103233930
Эволюция кооперации. Для тебя, читай. >>103233904
>>103233987
Самцы просто по факту лучше воюют блять, если общество пошлёт воевать самок то такая армия просрёт войну самцам. 1 самец мение важен для численности популяции, чем 1 самка, но более важен для качества. Если будут воевать самки то настанет пиздец с демографией когда на 1 самку будет 10 самцов(грубо) и если 1 самец оплодотворит 10 самок и через 1 год будет 10 детей то от 1 самки 10 детей будет только через год.
Аноним 05/10/15 Пнд 03:05:45 #599 №103234169 
>>103233999
А ты в курсе, что люди про неё ещё не знают особо?

>>103234001
Побежал - умер. Другой подумал и прикинулся деревом - выжил. Не убедил. К тому же, как побег от медведя помог тебе в развитии? Эта херня не эмоции даже. А уж компу срать на медведя, да и бегать такая постройка не сможет. ИИ обладающий страхом тебя просто прибьет, на всякий случай. Нормальный же оценит ситуацию. Потому что он не тупое ёбаное животное, коими являются 90% людей.

>>103234040
Так принято. К тому же, ты сам будешь старым. Как и калекой можешь стать. Так что если траты не твои, то разумнее поддержать это говно.

>>103234117
Людей миллиард. Сейчас 1 самка ничего не решает. Можешь выпилить миллион самок, никто не заметит. Отходите уже от первобытного мира, где было 3,5 калеки всего.
А ценность шлюхи сейчас только в разнообразии днк, не более.
Аноним 05/10/15 Пнд 03:07:10 #600 №103234211 
>>103234117

то от 1 самки 10 детей будет только через 10 лет. И самцы поубивают друг друга ха это время.
Аноним 05/10/15 Пнд 03:08:12 #601 №103234238 
>>103234211
Смотря какие. Некоторые будут служить своей королеве, чтобы полизать ей писечку.
Аноним 05/10/15 Пнд 03:09:55 #602 №103234282 
>>103233987
Общество просто пробуждает инстинкт самоуничтожения. Но сам инстинкт заложен в нас природой. Он спит и ждёт своего часа. В нужный момент этот инстинкт, запущенный групповым внушением, отключит твой мозг, понизит уровень твоего интеллекта, заставит тебя перестать хотеть жить, перестать хотеть ебаться. Тобой всецело овладеет желание прийти туда, где убивают людей. Ты, человек, сам захочешь прийти туда, где смерть. А защитные механизмы твоей психики внушат тебе, что ты всё делаешь правильно. Что ты идёшь бороться за идеалы. И ты ты даже, благодаря защитным механизмам психики будешь до самого последнего момента надеяться, что ты не умрёшь. Но твой инстинкт самоуничтожения заставит тебя оставаться месте либо до тех пор, пока ты не умрёшь, либо до тех пор, пока не умрут всё остальные.
Аноним 05/10/15 Пнд 03:11:22 #603 №103234319 
>>103234169
> Отходите уже от первобытного мира, где было 3,5 калеки всего.
Ну блять я и одежду ношу, но вот как то не получается мурашки побороть.
>Сейчас 1 самка ничего не решает.
Так самец точно также стал решать еще меньше.
С чего бы ценность самца возросла. И у курдов с евреями бабы воюют. Я лишь пытаюсь объяснить доминирующую тенденцию.
Аноним 05/10/15 Пнд 03:12:04 #604 №103234343 
>>103234169
Я бы все-таки накатал стену текста с терминами и менее примитивными объяснениями, но мне пора идти спать, вставать через 5 часов. Если хочешь, оставь мыло, договорим.
>прикинулся деревом - выжил
Разве что это прокомментирую. Медведь не перепутает человека с деревом в 100% случаев, как бы человек не изъебывался, поверь.

Аноним 05/10/15 Пнд 03:12:45 #605 №103234361 
>>103234117
>Самцы просто по факту лучше воюют блять, если общество пошлёт воевать самок то такая армия просрёт войну самцам.
Это потому что самки не хотят умирать. При любом раскладе самка предпочтёт сдаться в плен и быть выебаной, чем идти в лобовую атаку. Самкам просто инстинкты не позволяют быть хорошими воинами. Потому что хорошие воины слишком часто умирают на войне.
Аноним 05/10/15 Пнд 03:13:10 #606 №103234374 
>>103234238
Так самый приспособленный и оставит больше всех детей.
Аноним 05/10/15 Пнд 03:16:23 #607 №103234439 
>>103234282
Не, у меня уровень уже выше этого говна.

>>103234319
Смотря какой. В массе, да, такие же расходники. Кстати, представь мир, не страну, а мир, где вымерло 90% самцов. Самки позволят тебе плодиться, но по уровню развития будет каменный век. Самки не смогут восстановить цивилизацию, а самцов слишком мало, чтобы они делали что-то кроме ебли.

>>103234374
Лол. Я ТНН. Детей не планирую. За стенкой сосед, у него жена блядь и 2 личинки. У его сестры 1 наркоман и ещё 2 растут. У сестры его жены тоже 2 личинки. Потому что бабло давали за них. По уму, вся свора просто идиоты. В таком ёбаном мире плодится лишь быдло и алкаши. А всё потому, что я понимаю идиотизм о продолжении. Я это я. Дети это не я. Не нужны.
Аноним 05/10/15 Пнд 03:17:36 #608 №103234473 
>>103234361
> сдаться в плен и быть выебаной
Если бы мне альтернативой лобовой атаки была ёбля в плену, я бы выбрал второе.
Аноним 05/10/15 Пнд 03:18:10 #609 №103234483 
>>103234374
Больше всех детей оставит тот, кто лучше приспособлен к выживанию. В ситуации с войной это будет тот, чей инстинкт размножения сильнее, чем инстинкт самоуничтожения.
Аноним 05/10/15 Пнд 03:19:41 #610 №103234517 
>>103234483
>Больше всех детей оставит тот, кто лучше приспособлен к выживанию
И опять лол. А он вот разумный и не хочет детей. Всё, соснули. А быдло будет плодить нищету, потому что тугосеря часть культа.
Аноним 05/10/15 Пнд 03:21:13 #611 №103234559 
>>103234517
>А он вот разумный и не хочет детей.
Он не очень разумный. Разумный человек не положить человечество на алтарь своего эгоизма.
Аноним 05/10/15 Пнд 03:21:18 #612 №103234562 
>>103234439
>Не, у меня уровень уже выше этого говна
Ну просто в твоём кругу общения (это несколько десятков человек) ещё не всё так плохо и потому популяция не давит на тебя, пытаясь пробудить твой инстинкт смерти. Вот когда вокруг настанет пиздец и все вдруг начнут требовать от тебя быть "настоящим мужчиной", тогда вспомни мои слова.
Аноним 05/10/15 Пнд 03:23:08 #613 №103234605 
>>103234483
>В ситуации с войной это будет тот, чей инстинкт размножения сильнее, чем инстинкт самоуничтожения.
И опять верно(даже если забыть что вся эта байда про самоуничтожение хуйня лютая)
Тот кто выжил и оставил потомство тот более приспособлен.
Аноним 05/10/15 Пнд 03:24:14 #614 №103234622 
>>103234517
При чём тут разумный то?
Разум и хотения это разные вещи. Хотение -- это как раз часть инстинкта. Если он не хочет ебать баб, значит его инстинкт размножения либо подавлен либо он сам по себе вырожденец.
Скорее всего инстинкт подавлен. Возможно с детства.
Аноним 05/10/15 Пнд 03:26:00 #615 №103234679 
>>103234559
Почему это? 5 элемент смотрел? Когда она в конце понимает, что это говно нахуй не нужно. Не те люди, не то общество, ради которых стоит умирать или лишаться чего-либо. Видя от общества/страны только дерьмо, любить его, это мазохизм.

>>103234562
>начнут требовать
Посылаю их нахуй. И идут как миленькие со своими семья, личинка и прочее говно.

>>103234622
Потому что обрекать личинку на жизнь в параше, слишком жестоко. Просто читай треды тут и смотри как многие "любят" родоков. Всё это нытьё, что их в 25 лет мамка гонит работать итд. Вырастить человека довольно сложно и нужны ресурсы. Не говоря про годную тню, что уже стало фантастикой.
Аноним 05/10/15 Пнд 03:28:03 #616 №103234731 
>>103234605
Не. Ну ты просто объясни мнетогда, что заставляет людей идти на смерть. Верность идеалам Родины?
А тебе не кажется, что верность идеалам -- это всего лишь маняоправдания человека, не способного сопротивляться бессмысленному влечению к смерти?
Аноним 05/10/15 Пнд 03:29:51 #617 №103234779 
>>103234731
Животное и пропаганда. Разумные не рискуют понапрасну. Чем более ты обезьяна, тем более быдло и хочешь воевать, тяночку, глупый риск ради дозы адреналина.
Аноним 05/10/15 Пнд 03:30:30 #618 №103234789 
>>103234679
>Посылаю их нахуй. И идут как миленькие со своими семья, личинка и прочее говно.
Ты рано делаешь выводы. На твоей территории пиздец ещё не настал. Соответственно давление на тебя ещё не достаточно сильное.
Аноним 05/10/15 Пнд 03:32:17 #619 №103234844 
>>103234779
Ну. И это ли не инстинкты? Конечно инстинкты.
Эти инстинкты приводят к гибели человеческих особей? -- Да, по факту люди гибнут.
Так о чём мы спорим?
Аноним 05/10/15 Пнд 03:33:31 #620 №103234877 
>>103234789
Не настанет. Да и кому давить то? Родоки уже поняли что бесполезно. А мнения других для меня пустое место, если не обоснованы. А тут они в пролете, потому что кроме стакана воды и так принято ничего нет.

>>103234844
Я там вклинился. 103234605 - другой анон.
Аноним 05/10/15 Пнд 03:38:03 #621 №103234978 
>>103234679
>бессмысленному влечению к смерти
>бессмысленному
>влечению к смерти
Было бы проще и экономнее всем порезать себе вены чем идти куда то воевать. Люди не идут на смерть чё за хуйню ты говоришь. Люди идут убивать. Боец не выходит на ринг получить пизды, а выходит её раздавать. Воюют с теми кто отличается, почему те кто отличается враги я думаю не стоит объяснять.

>>103234844
Самоубийство ради блага популяции было бы взятся за руки и помереть, а не тратить и без того скудные ресурсы популяции на войну с кем то.
О причинно следственной связи. До 20го века каждая 6я женщина помирала во время родов по твоей логике желание родить это стремление к смерти. У тебя какой то фрейдизм, только вместо сексуального фатальное.
Аноним 05/10/15 Пнд 03:44:35 #622 №103235132 
>>103234978
Ты криво пост выделил. бессмысленное не моё, а >>103234731
Аноним 05/10/15 Пнд 03:56:59 #623 №103235380 
>>103232754
>>103232754
Гены набор широких инструкций. Проявление зависит от условий окружающей среды.
> Это ведь от моего развития зависит буду ли врачом или художником.
Это зависит от условий окружающей среды. Гены могут определить склонность к подобной деятельности, но если условия не сложатся то они и не проявятся. У тебя могут быть "гены суперспринетра олипийского чемпиона по бегу", но если тебе в 6 лет отрубит ноги то как то похуй, смысл я думаю понятен.
Аноним 05/10/15 Пнд 04:00:06 #624 №103235436 
>>103234978
Люди идут убивать, но при этом сами готовы умереть. Суть то инстинкта не в том, что вот ты конкретно должен умереть. Суть инстинкта в том, что должен умереть хоть кто-нибудь. Чтобы просто людей стало меньше.
А вены не вскрывают лишь потому, что помимо инстинкта смерти есть ещё и противоречащий ему инстинкт сохранения своих генов. Тебе, как носителю своего генома твой собственный инстинкт не позволит убить себя просто так. Ты сначала должен попытаться убить другого. При том желательно убить представителя другой популяции, так как особь из другой популяции несёт чужие гены. Т.е. ты и особъ из другой популяции повинуясь инстинкту должны идти к месту смерти и бороться там, пока кто-то не умрёт. А победитель, выполнив задачу по регуляции численности, получает право дальше распространять свой геном.
Аноним 05/10/15 Пнд 04:10:44 #625 №103235666 
>>103234978
>До 20го века каждая 6я женщина помирала во время родов по твоей логике желание родить это стремление к смерти.
Нет конечно. Стремление к смерти -- это не единственный механизм регуляции числености. Есть и другие механизмы, заложенные в нас природой. Например среди обезюян бонобо высокий процент бесплодных самок. Он просто не могут забеременеть. Так вот природа наградила их встроенным механизмом контрацепции. Старение человека и его смерть от старости -- тоже один из природных механизмов регуляции численности. Смерть при родах -- этот тоже такой же механизм регуляции. При родах умирали те женщины, которые не имели достаточно ресурсов для развития и поддержания в тонусе собственного организма. Т.е. с эволюционой точки зрения умирали наименее приспособленные. Это не регуляция численности, а механизм естественного отбора носителей наиболее удачных генов.
На самом деле механизм регуляции численности и механизм отбора очень тесно переплетены.
Аноним 05/10/15 Пнд 04:14:06 #626 №103235747 
>>103235436
Согласен. Меня напрягало то что я усмотрел такую схему
Ресурсов мало>Инстинкт самосохранения гаснет>Надо просто умирать во имя общего блага.
Вместо Ресурсов мало>надо ради того что бы выжить рискнуть жизнью и отнять ресурсы у кого то еще, ради чисто своих эгоистичных интересов, а регуляция численности чисто механическое следствие этого о которой особь и не подозревает.
тут >>103235436 я я думаю всё верно.
Аноним 05/10/15 Пнд 04:23:36 #627 №103235965 
>>103235747
>особь и не подозревает
Да. В этом суть инстинкта.
Так же с инстинктом размножения. Люди не хотят производить личинок. Люди хотят просто ебаться.
Вообще важнейшее качество инстинктов в том, что люди их не осознают. Человеческий мозг устроен так, что человек не способен осознавать суть действий, выполняемых инстинктивно. Это защитный природный механизм, чтобы человек не мог сопротивляться.
comments powered by Disqus

Отзывы и предложения