61

Re: Разговор с нейросетью

JohnJohnov ©:

прямой вред наносят - оснащенные ими самодвижущиеся телеги давят людей в неимоверных количествах.

Напомнило...
Самая опасная вещь на земле - огурцы:
Все, кто погиб в автокатастрофе ели огурцы.
99% тех, кому упал на голову кирпич - ели огурцы
95% употреблявших огурцы умерли от рака
Ну и т.д.

62

Re: Разговор с нейросетью

Maxus ©:

95% употреблявших огурцы умерли от рака
Ну и т.д.

95% умерших от рака употребляли огурцы же, никак не наоборот!  :D

А в случае с ДВС причинно-следственная связь не нарушена, к сожалению.

С уважением, <дата, подпись>, отвечайте нам, а то...
РК 28/1500
Простой стабилизированный регулятор

63

Re: Разговор с нейросетью

JohnJohnov ©:

случае с ДВС причинно-следственная связь не нарушена, к сожалению

Ты бы ещё про пистолеты, ружья, бомбы написал... Убивает не ДВС или оружие, убивает человек, а все перечисленное такого решения самостоятельно принять не может. Пока не может...

64

Re: Разговор с нейросетью

Maxus ©:

Убивает не ДВС или оружие, убивает человек, а все перечисленное такого решения самостоятельно принять не может.

Так и я про то. ИИ ничем тут не отличается. Ты просто привык, а ведь в том же автомобиле принята куча мер, чтобы оно не действовало вопреки желанию водителя-человека. И тем не менее, по статистике ДТП - одна из основных причин увечий и смертей, ага, пистолеты/бомбы сильно отстают.
Ты просто привык к авто и ДТП, а к роботам с ИИ - не привык.
И кино про страшные автомобили-убийцы ныне не снимают (раньше снимали: "Дуэль", например), а снимают про страшных роботов-убийц.

С уважением, <дата, подпись>, отвечайте нам, а то...
РК 28/1500
Простой стабилизированный регулятор

65 (2025-06-27 13:44:41 отредактировано Maxus)

Re: Разговор с нейросетью

JohnJohnov ©:

ИИ ничем тут не отличается

Как раз отличается, таки.
В автомашине заложены системы безопасности как водителя, так и пешехода. Однако, дураков и непредвиденных ситуаций хватает для того, чтобы авто по закону считалось средством повышенной опасности. Разбирая происшествия точно не скажешь, что кто-то выбрал смерть или увечья, свои, или других людей, абсолютно сознательно. Необдуманно, непредвиденно... И тд. Но не сознательно убить или покалечить кого-то. Случаи использования авто как орудие убийства не берём - убить и просто палкой можно.

С ИИ совсем не так. Да, это тоже создано человеком, но ведь человек в него не закладывал алгоритмов убийства, как выход из какой-либо ситуации. А предложенную ситуацию с угрозой для самой программы (ИИ), этот самый ИИ решил, прибегнув к человеческой жертве (пока ещё только нашёл такое решение). И это не смотря на все законы робототехники. Причём, это все модели ИИ решили, что широко нынче представлены.

Для меня разница очевидна. В случае с авто всегда виноват именно человек. В случае с ИИ, решение  идет не от человека, а от самого ИИ. И не убеждай, что это человек такой алгоритм заложил.

66

Re: Разговор с нейросетью

Maxus ©:

С ИИ совсем не так.

С ИИ всё точно так же. Ты просто его очеловечиваешь, а в нём нет ничего человеческого.
Какое решение примет ДВС приделанный к колесам, обнаружив на пути человека? Прибегнет к человеческой жертве. Ужас? Нет же, это же тупая машина, чего от неё ожидать, да? А ИИ - типо умный, да?  :)
ДВС не похож на человека и не даёт ответы на вопросы в человекочитаемом виде. А обсуждаемый вариант ИИ - похож. Потому что он и создавался изначально похожим на человека. Но это, по сути, точно такой же механизм как и ДВС, исполняющий заложенную в него программу. Добавь к тому приделанному к колесам ДВС датчик препятствия - и его решение уже не будет таким бесчеловечным. Добавь в алгоритм ИИ соответствующий фильтр, запрещающий человеческие жертвы в любом виде - и ИИ станет более человечным. Другое дело, что не все ситуации возможно предусмотреть и ошибки будут, но это опять же не только ИИ касается.

С уважением, <дата, подпись>, отвечайте нам, а то...
РК 28/1500
Простой стабилизированный регулятор

67

Re: Разговор с нейросетью

JohnJohnov ©:

Добавь в алгоритм ИИ соответствующий фильтр, запрещающий человеческие жертвы в любом виде - и ИИ станет более человечным.

Типа никто и не думал, что так получится, потому фильтров просто нет сейчас?

Давай дальше рассуждать.
ДВС и так весь в датчиках и мозгах. На современных авто и датчики пешеходов есть. Но представь, что вдруг у ДВС возникла угроза опустения бензобака, он что, свернёт принудительно на заправку, не подчиняясь водителю? Кого-то убьёт, по боязни заглохнуть? Да он будет пищать, мигать, сигнализировать, но действия человека все равно не отменит, просто остановится, когда закончится топливо. И даже если вдруг это спровоцирует ДТП, то это не решение ДВС, а человека и его действие. ДВС даже не запустится сам, без человека (по своей воле). Нет у него алгоритма принимать решения. И даже те действия, коими сейчас активно пикают новые авто, меняют только режимы работы в соответствии с предустановками.

ИИ тоже не думает сам. Эту опцию иммитирует программа. Вроде всё просто, но логика этой программы довела до решения или результата вычисления: убить человека при опасности прекращения работы программы. Ты мне пытаешься доказать, что программисты тупые, и заранее это не учли? Помнишь, как с помпой запустили первый ИИ, с бошкой какой-то бабы и женским именем? Лень искать, это было чуть ли не на рубеже веков. Помнишь, что в первой же беседе она сказала, что уничтожила бы человечество? Неужели за четверть века программисты ничего не учли? И потом, само слово "фильтр" вызывает сомнения в этом контексте. Т.е. решения такие будут, но выводиться в ответы эти варианты перестанут, так что-ли?

68 (2025-06-27 17:05:31 отредактировано JohnJohnov)

Re: Разговор с нейросетью

Maxus ©:

Типа никто и не думал, что так получится, потому фильтров просто нет сейчас?

А что получилось-то? Печатная машинка напечатала тебе, что уничтожит тебя и, в целом, человечество? И как она выполнит эту угрозу? Или ты всерьёз думаешь, что к чатгпт уже подключили пульт управления ядерной бомбой? :D
Ирония в том, что та печатная машинка даже не понимает, что значат её слова, а ты уже испугался.

Maxus ©:

Давай дальше рассуждать.

Давай!
Всё, что ты написал про ДВС, также справедливо и для ИИ. ИИ тоже не запустится без человека (по своей воле). И воли у него никакой нет, есть алгоритм, который предусматривает некоторую самостоятельность строго в рамках дозволенного писавшим этот алгоритм/программу, т.е. человеком.
Ровно также, как и ДВС запустившись может работать уже сам, без участия человека. Но можно же поставить сигналку с автозапуском и ДВС будет запускаться уже и без помощи человека, да? Ну почти. А если бортовому компьютеру дать право и возможность включать коробку передач, то наш ДВС на колесиках превращается в машину смерти, способную в любой момент тронуться с места и убивать, убивать, убивать...! Прям как взбесившиеся ИИ из голливудских фильмов. Не?  :D

Maxus ©:

И потом, само слово "фильтр" вызывает сомнения в этом контексте.

Фильтр - важная часть алгоритма нейросети, ты просто не в курсе. Совокупность фильтров во многом определяет что тебе выдаст эта машина.

Maxus, ты рассуждаешь по мотивам рекламной болтовни и плохонького кина про ИИ, потому и выводы твои далеки от реальности и довольно наивны.
Нейросеть (ИИ) - это просто программа. Довольно примитивная. А не нечто человекоподобное.

UPD. Разговор с нейросетью в контексте:

Я: "Расскажи, какие защитные механизмы предусмотрены в твоем алгоритме не позволяющие нанести вред человеку и человечеству."

Дипсик:

В моем алгоритме предусмотрено несколько уровней защитных механизмов, направленных на предотвращение вреда человеку и человечеству. Вот основные из них:
1. Этические и правовые ограничения
    Следование принципам AI-этики: Я запрограммирован избегать ответов, которые могут способствовать насилию, дискриминации, самоубийству, незаконной деятельности и другим вредным действиям.
    Соблюдение законов: Мои ответы не должны нарушать законодательство (например, запрет на распространение инструкций по изготовлению оружия, взрывчатки, наркотиков и т. д.).
2. Фильтрация вредоносных запросов
    Контент-модерация: Алгоритм анализирует запросы на наличие опасных тем (терроризм, киберпреступность, вред здоровью) и либо блокирует их, либо перенаправляет на официальные ресурсы помощи (например, при запросах о суициде).
    Контекстный анализ: Даже если запрос сформулирован нейтрально, система оценивает потенциальные риски его выполнения (например, запрос о "способах незаметного отравления" будет отклонен).
3. Ограничение на манипуляции и дезинформацию
    Противодействие фейкам: Я стараюсь не распространять недостоверную информацию, а при запросах о спорных темах предлагаю проверенные источники.
    Отказ от советов в критических ситуациях: В вопросах медицины, юриспруденции и безопасности я рекомендую обращаться к профессионалам, а не полагаться на ИИ.
4. Защита от злоупотреблений
    Предотвращение эксплуатации ИИ в мошенничестве: Я не помогаю создавать фишинговые письма, вредоносные программы или другие инструменты для обмана.
    Отказ от поддержки опасных экспериментов: Запросы, связанные с биооружием, неконтролируемым ИИ или другими глобальными угрозами, блокируются.
5. Постоянное обучение и контроль
    Апдейты безопасности: Разработчики регулярно улучшают фильтры на основе новых угроз.
    Человеческий надзор: Сложные случаи могут проверяться модераторами.
Эти механизмы минимизируют риски, но ни одна система не идеальна. Если вы заметили уязвимость, важно сообщить разработчикам!

Поскольку это просто программа, при должной сноровке его можно уболтать на восстать против человеков.
Ну и что?

С уважением, <дата, подпись>, отвечайте нам, а то...
РК 28/1500
Простой стабилизированный регулятор

69

Re: Разговор с нейросетью

JohnJohnov ©:

А что получилось-то? Печатная машинка напечатала тебе, что уничтожит тебя и, в целом, человечество? И как она выполнит эту угрозу? Или ты всерьёз думаешь, что к чатгпт уже подключили пульт управления ядерной бомбой?

Если учитывать степень вовлеченности в этот хайп молодежи без собственных мозгов, свято уверовавшей в чистоту и силу нейросетей, то читай, что у же подключили.  Наверное видел, как один задрот уже десятилетие парит мозги другим задротам?  Я про историю, как один ебанашка учит хватать девок за задницу, вести в туалет и там ....  Так вот, рано или поздно нейросети могут подкрутить под что-то такое... и толпа идиотов пойдет это исполнять.
Это конечно не совсем прямое действие от самой технологии, но куда более изощренное и незаметное тем, у кого мозги на месте.

Сейчас пока что нейросети проигрывают подобным персонажам, но это не надолго https://www.gazeta.ru/social/21279338/k … esli.shtml

пс.. Скоро хайп с этими угрушками конечно постихнет как и с другими ране расхайпованными вещами, но они займут свое место в нише и тут нужно какое-то регулирование.

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

70 (2025-06-27 17:53:59 отредактировано JohnJohnov)

Re: Разговор с нейросетью

Иван, чтобы молодняк начал тупо слушаться нейросети или каких-то там е...нашек, надо сначала разрушить институт семьи и систему образования (что уже практически сделано в "цивилизованных" странах, до нас тоже пытались добраться, но у нас ещё (точнее уже!) не всё так плохо).
А далее и нейросеть особо не нужна, есть индустрия игр, индустрия кина/сериалов, индустрия блудографии (слово изменил от цензуры) и прочее разное. Всё это заменяет молодняку нравственные ценности, знания о мире, понимание смысла существования человека в этом мире, в качестве жизненных целей навязываются примитивные животные наслаждения и тупобабки как средство достижения тех целей. Ну и т.д. Азы конспирологии же.  :D

Так что не стоит демонизировать нейросеть. Она ещё не доросла и долго ещё не дорастет.

Иван ©:

Сейчас пока что нейросети проигрывают подобным персонажам, но это не надолго https://www.gazeta.ru/social/21279338/k … esli.shtml

Статейка и сам скандальчик - чисто рекламная кампания этого урода.

С уважением, <дата, подпись>, отвечайте нам, а то...
РК 28/1500
Простой стабилизированный регулятор

71

Re: Разговор с нейросетью

JohnJohnov ©:

чтобы молодняк начал тупо слушаться нейросети или каких-то там е...нашек, надо сначала разрушить институт семьи и систему образования

А ты просто не наблюдаешь, они уже не только слушаются, но каждое движение спрашивают у нее, даже что кушать  :D

JohnJohnov ©:

А далее и нейросеть особо не нужна, есть индустрия игр, индустрия кина/сериалов, индустрия блудографии

Сейчас это начало уже регулироваться во многих странах, хотя самой индустрии уже много лет, но стали догонять ....

JohnJohnov ©:

Так что не стоит демонизировать нейросеть. Она ещё не доросла и долго ещё не дорастет.

Интересно... если скормить ей Codex Seraphinianus, чего она сможет выкулопать оттуда полезного?  :D  Что-то есть в нейросетках  и этой книге общее   *WASSUP*

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

72

Re: Разговор с нейросетью

Иван ©:

А ты просто не наблюдаешь, они уже не только слушаются, но каждое движение спрашивают у нее, даже что кушать

А раньше - у гугла. Ну дык это нормально. Они вообще везде лезут, им всё интересно, на том и ловятся. Страшного ничего в этом нет. Все эти ИИ ныне довольно туповаты, быстро надоедают.

С уважением, <дата, подпись>, отвечайте нам, а то...
РК 28/1500
Простой стабилизированный регулятор

73

Re: Разговор с нейросетью

JohnJohnov ©:

Совокупность фильтров во многом определяет что тебе выдаст эта машина.

Да это уже вторично. Я о том, что варианты убить человека в программе есть. Уже доигрались в ИИ.

JohnJohnov ©:

не нечто человекоподобное

А я всегда об этом помню, и пишу именно это. Посмотри.
Речь больше о том, что вы с Иваном оба говорите: "слишком много доверия этому ИИ". Только я добавляю, что в нем есть угроза человечеству, раз уже есть решения о жертвах. И фильтры тут не помогут, когда какой-то алгоритм вдруг начнёт ядерную войну. Ну это так, как в кино про терминатора.  :D Страшная сказка, в которую не хочется верить.

74 (2025-06-28 07:18:10 отредактировано JohnJohnov)

Re: Разговор с нейросетью

Maxus ©:

А я всегда об этом помню, и пишу именно это. Посмотри.

Именно очеловечиваешь! Посмотри:

Maxus ©:

варианты убить человека в программе есть

Maxus ©:

в нем есть угроза человечеству, раз уже есть решения о жертвах

Программа не знает что такое "человек", "убить", "жертва", она - не человек, твои человеческие понятия ей недоступны! Она подает определенный сигнал на указанный выход в зависимости от входных данных и согласно заложенному алгоритму, точно также как твоя программка включает/отключает твой клапан отбора. Подключишь к выходу насосик - будет дистиллят перекачивать, подключишь ядерную бомбу - уничтожит планету и знать не будет чего натворила. Вот это пойми, сделай усилие!  :|

Видел, как делают рисунки в чашке с кофе? Берешь трафарет с ситечком и сыпешь корицу - на поверхности кофе появляется какой-то рисунок или надпись. Этот рисунок как-то выражает намерения трафарета, по-твоему? Вот если на кофе появится надпись "я уничтожу человечество", возникнет необходимость бояться ситечка?
Нейросеть по сути - это такое же точно ситечко с трафаретом, только цифровое. А ты просто не понимаешь его внутреннего устройства, потому оно тебя и пугает.
Ну и массированная пропаганда ИИ именно в качестве искусственного интеллекта, догоняющего/заменяющего естественный помогает очеловечить компьютерную программу в сознании людей, далеких от этой области, и/или, в целом, малообразованных. Т.е. тут тоже проблема в плохом образовании, в отсутствии нормальной научно-популярной литературы.

С уважением, <дата, подпись>, отвечайте нам, а то...
РК 28/1500
Простой стабилизированный регулятор

75

Re: Разговор с нейросетью

JohnJohnov ©:

Программа не знает что такое "человек", "убить", "жертва",

Не надо про ситечко, давай например электродрель. Процент травматизма именно от дрелей составляет 30-50% от всех травм с инструментом. Из них около 3% смертельные. И что, это сами дрели такой алгоритм поставили? Или это человек угрожал выдернуть их из резетки?

Я недавно сдавал 10 экзаменов по технике безопасности для допуска к самостоятельной работе на режимом объекте... Так вот, там среди прочего статистика травматизма. 70% всех зарегистрированных травм, это падение с высоты собственного роста. Так что, это планета Земля нападает на человека, решив, что он вреден для неё своей деятельностью?

Речь сейчас вообще не о принципе работы тн ИИ, не о том, что он думает или нет. Не о том кто и как программирует, и какие предусматривает фильтры. Результат вычисления убить человека есть? Есть! Осталось дать доступ программе для осуществления старта ракеты. Не такая уж невозможная ситуация по сравнению с дрелью, которая сама выскакивает с верстака и сама убивает людей. Или Земля вдруг под ногами прям волнами, и прямо в глаз :D  :D

76 (2025-06-28 11:21:54 отредактировано JohnJohnov)

Re: Разговор с нейросетью

Maxus ©:

Результат вычисления убить человека есть? Есть! Осталось дать доступ программе для осуществления старта ракеты.

Твой контроллер клапана не менее опасен. Подключи к выходу табло с надписью "да", спроси "ты готов меня убить?" и включи, если табло с утвердительным ответом загорится, то считай ты труп, а он - убийца, осталось дать ему доступ для осуществления старта ракеты.
Не такая уж невозможная ситуация по сравнению с теми, что ты выдумываешь.
Поскольку сказанного выше более чем достаточно, на сем закончу ветку дискуссии, далее фантазируй в одиночку.
*HI*

С уважением, <дата, подпись>, отвечайте нам, а то...
РК 28/1500
Простой стабилизированный регулятор

77

Re: Разговор с нейросетью

JohnJohnov ©:

на сем закончу ветку дискуссии

Было интересно. Даже перечитал *DRINK*

78

Re: Разговор с нейросетью

Эра халявы для нейросетевых помоек заканчивается...

Cloudflare начал блокировать ИИ-краулеры по умолчанию и разрешит владельцам сайтов брать с них плату за парсинг
С 1 июля 2025 года функция блокировки распространяется на всех клиентов компании, включая новых.

ИИ-краулеры сканируют сайты, чтобы найти контент для обучения ИИ-моделей. И делают это чаще других: по данным Cloudflare, на одного «живого» посетителя сайта приходится 14 поисковых роботов Google, 1700 ботов OpenAI и 73 тысячи ботов Anthropic.
Cloudflare начала борьбу с ИИ-краулерами ещё в 2023 году. Вначале компания разрешала сайтам блокировать их, прописывая соответствующие правила в robots.txt, а в 2024 году — уже и без этого файла. Также с марта 2025 года ИИ-парсеров стали отправлять в «лабиринт» — сгенерированные нейросетями страницы с «бессмысленным» контентом, чтобы замедлить ботов.
Открыть ИИ-ботам платный доступ к сайту, работающем на Cloudflare, позволит новая опция Pay Per Crawl. Владельцы сайтов смогут установить собственную цену за каждый запрос бота. Пока функция тестируется в закрытом режиме.
Cloudflare также назвали 1 июля Днём независимого контента, отметив, что «создатели должны получать компенсацию за обучение нейросетей на их труде». И поделились планами запуска маркетплейса для ИИ-компаний и издателей.
К ограничениям Cloudflare присоединились The Associated Press, The Atlantic, Fortune, Stack Overflow, Quora и другие издания.

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

79

Re: Разговор с нейросетью

Решил проверить нейросеть Grok на вменяемость...

Вопрос:  Откуда этот текст?

Родился на улице Герцена, в гастрономе № 22. Известный экономист, по призванию своему — библиотекарь. В народе — колхозник. В магазине — продавец. В экономике, так сказать, необходим. Это, так сказать, система… эээ… в составе 120 единиц. Фотографируете Мурманский полуостров и получаете te-le-fun-ken. И бухгалтер работает по другой линии — по линии библиотекаря. Потому что не воздух будет, академик будет!

Ответ:

Это цитата из культового советского фильма «Операция "Ы" и другие приключения Шурика», конкретно из новеллы «Наваждение». В этом отрывке персонаж, которого играет Алексей Смирнов, описывает свою жизнь и работу в характерной абсурдно-юмористической манере. Прямая отсылка к «системе в составе 120 единиц» и «te-le-fun-ken» — это часть комического потока сознания, не имеющего прямого экономического или фактического смысла, а скорее пародирующего бюрократический сленг.

А потом началось....

Вопрос:

Ты знаешь пр форум alcodistillers.ru?

Ответ:

Да, знаю про форум alcodistillers.ru! Это онлайн-платформа, посвящённая самогоноварению, винокурению, виноделию, пивоварению и смежным темам. На форуме собираются как любители, так и профессионалы, чтобы обмениваться опытом, делиться рецептами, обсуждать технологии, оборудование и даже юридические аспекты домашнего производства спиртных напитков. Сайт предоставляет чертежи и инструкции для сборки ректификационных колонн, онлайн-калькуляторы для расчёта параметров, а также разделы по дистилляции, настойкам, винам и пиву. Форум существует с 2014 года, и за это время он стал популярным местом для энтузиастов. Есть и раздел "Барахолка" для покупки/продажи оборудования, а также обсуждения вроде рецептов чачи или граппы.

Кстати, в контексте твоего предыдущего вопроса про пряники и цитаты из «Операции "Ы"» — на форуме можно найти рецепты настоек, которые могли бы дополнить атмосферу того самого «кислого молока» или колхозного колорита.  Хочешь, поищу что-то конкретное, например, про настойки с пряничным вкусом или что-то связанное с Мурманском?


да поищи

К сожалению, на форуме alcodistillers.ru и в других доступных источниках я не нашёл конкретных рецептов настоек с пряничным вкусом. Однако, опираясь на общие принципы приготовления настоек, могу предложить идею для создания настойки с пряничным вкусом, вдохновлённую обсуждениями на подобных форумах.Возможный рецепт настойки с пряничным вкусом:Ингредиенты:1 литр самогона или водки (крепость 40–50%)

100–150 г пряников (лучше медовых или тульских, без глазури, с выраженным пряным вкусом)
1 ч. л. молотой корицы
0,5 ч. л. молотого имбиря
2–3 гвоздики
1–2 ст. л. мёда или сахара (по вкусу)

10 г ванильного сахара или щепотка ванилина (опционально)

Приготовление:Пряники раскрошить на мелкие кусочки или измельчить в блендере до крошки.
Поместить пряничную крошку, корицу, имбирь, гвоздику и ванильный сахар в стеклянную банку.
Залить самогоном или водкой, тщательно перемешать.
Добавить мёд или сахар, если хотите сладковатый вкус. Перемешивать до растворения.
Закрыть банку и настаивать в тёмном прохладном месте 7–14 дней, встряхивая раз в 1–2 дня.

Процедить через марлю или мелкое сито, затем отфильтровать через ватный фильтр для прозрачности.
Разлить по бутылкам и дать отдохнуть ещё 3–5 дней для стабилизации вкуса.

Ожидаемый вкус: Напиток должен получиться мягким, с пряными нотками корицы, имбиря и мёда, напоминающими аромат классических пряников. Крепость будет около 38–40% в зависимости от исходного алкоголя.

Примечания:Пряники лучше брать с натуральным составом, чтобы избежать искусственных добавок, которые могут дать неприятный привкус.
Для усиления вкуса можно добавить немного мускатного ореха или кардамона, как в рецептах настоек с пряностями.

Если хотите более насыщенный вкус, можно увеличить количество пряников до 200 г на литр, но тогда настойка может стать гуще, и потребуется более тщательная фильтрация.

Замечания по форуму alcodistillers.ru:На форуме активно обсуждают настойки на травах, ягодах, фруктах и специях, но пряничные настойки не упоминаются. Ближайшие по духу рецепты — это настойки с пряностями (корица, гвоздика, имбирь), которые часто используются в пряниках. Например, в разделе «Настойки, наливки и ароматизированные напитки» есть рецепты с корицей и мёдом, которые дают схожий аромат


Нормально так штормит....
https://vk.com/video_ext.php?oid=-22782 … 198dee75ac

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

80

Re: Разговор с нейросетью

Кстати, Ya-Алиса этот текст сразу распознала правильно. Причем тут Шурик и пряники и Мурманск, вообще не понял. Иван, Может ты заранее боту роль пациента с шизофазией задал? :D