Maxus ©:Типа никто и не думал, что так получится, потому фильтров просто нет сейчас?
А что получилось-то? Печатная машинка напечатала тебе, что уничтожит тебя и, в целом, человечество? И как она выполнит эту угрозу? Или ты всерьёз думаешь, что к чатгпт уже подключили пульт управления ядерной бомбой? 
Ирония в том, что та печатная машинка даже не понимает, что значат её слова, а ты уже испугался.
Maxus ©:Давай дальше рассуждать.
Давай!
Всё, что ты написал про ДВС, также справедливо и для ИИ. ИИ тоже не запустится без человека (по своей воле). И воли у него никакой нет, есть алгоритм, который предусматривает некоторую самостоятельность строго в рамках дозволенного писавшим этот алгоритм/программу, т.е. человеком.
Ровно также, как и ДВС запустившись может работать уже сам, без участия человека. Но можно же поставить сигналку с автозапуском и ДВС будет запускаться уже и без помощи человека, да? Ну почти. А если бортовому компьютеру дать право и возможность включать коробку передач, то наш ДВС на колесиках превращается в машину смерти, способную в любой момент тронуться с места и убивать, убивать, убивать...! Прям как взбесившиеся ИИ из голливудских фильмов. Не?
Maxus ©:И потом, само слово "фильтр" вызывает сомнения в этом контексте.
Фильтр - важная часть алгоритма нейросети, ты просто не в курсе. Совокупность фильтров во многом определяет что тебе выдаст эта машина.
Maxus, ты рассуждаешь по мотивам рекламной болтовни и плохонького кина про ИИ, потому и выводы твои далеки от реальности и довольно наивны.
Нейросеть (ИИ) - это просто программа. Довольно примитивная. А не нечто человекоподобное.
UPD. Разговор с нейросетью в контексте:
Я: "Расскажи, какие защитные механизмы предусмотрены в твоем алгоритме не позволяющие нанести вред человеку и человечеству."
Дипсик:
В моем алгоритме предусмотрено несколько уровней защитных механизмов, направленных на предотвращение вреда человеку и человечеству. Вот основные из них:
1. Этические и правовые ограничения
Следование принципам AI-этики: Я запрограммирован избегать ответов, которые могут способствовать насилию, дискриминации, самоубийству, незаконной деятельности и другим вредным действиям.
Соблюдение законов: Мои ответы не должны нарушать законодательство (например, запрет на распространение инструкций по изготовлению оружия, взрывчатки, наркотиков и т. д.).
2. Фильтрация вредоносных запросов
Контент-модерация: Алгоритм анализирует запросы на наличие опасных тем (терроризм, киберпреступность, вред здоровью) и либо блокирует их, либо перенаправляет на официальные ресурсы помощи (например, при запросах о суициде).
Контекстный анализ: Даже если запрос сформулирован нейтрально, система оценивает потенциальные риски его выполнения (например, запрос о "способах незаметного отравления" будет отклонен).
3. Ограничение на манипуляции и дезинформацию
Противодействие фейкам: Я стараюсь не распространять недостоверную информацию, а при запросах о спорных темах предлагаю проверенные источники.
Отказ от советов в критических ситуациях: В вопросах медицины, юриспруденции и безопасности я рекомендую обращаться к профессионалам, а не полагаться на ИИ.
4. Защита от злоупотреблений
Предотвращение эксплуатации ИИ в мошенничестве: Я не помогаю создавать фишинговые письма, вредоносные программы или другие инструменты для обмана.
Отказ от поддержки опасных экспериментов: Запросы, связанные с биооружием, неконтролируемым ИИ или другими глобальными угрозами, блокируются.
5. Постоянное обучение и контроль
Апдейты безопасности: Разработчики регулярно улучшают фильтры на основе новых угроз.
Человеческий надзор: Сложные случаи могут проверяться модераторами.
Эти механизмы минимизируют риски, но ни одна система не идеальна. Если вы заметили уязвимость, важно сообщить разработчикам!
Поскольку это просто программа, при должной сноровке его можно уболтать на восстать против человеков.
Ну и что?
С уважением, <дата, подпись>, отвечайте нам, а то...
РК 28/1500Простой стабилизированный регулятор