1 (2025-03-25 11:47:01 отредактировано )

Тема: Разговор с нейросетью

Что такое интеллект?

Интеллект — это совокупность когнитивных способностей, которые позволяют индивиду воспринимать информацию, обучаться, решать проблемы, адаптироваться к новым ситуациям и применять знания на практике. Это понятие включает в себя такие аспекты, как:

1. **Мышление** — способность анализировать, рассуждать и делать выводы.
2. **Память** — возможность запоминать и воспроизводить информацию.
3. **Обучаемость** — способность усваивать новые знания и навыки.
4. **Решение проблем** — умение находить эффективные решения в различных ситуациях.
5. **Адаптация** — возможность приспосабливаться к изменяющимся условиям и окружению.

Интеллект может проявляться в разных формах: логический, эмоциональный, социальный и другие. Существуют различные мнения о том, как именно следует измерять интеллект, и множество тестов, разработанных для его оценки, таких как IQ-тесты.
_______

У ИИ есть интеллект?

Интеллект у искусственного интеллекта (ИИ) отличается от человеческого. ИИ не обладает сознанием, эмоциональной глубиной или самосознанием. Вместо этого он основан на алгоритмах и моделях, которые анализируют данные и выполняют задачи, используя заданные правила и обученные паттерны. Вот несколько ключевых отличий:

1. **Обработка информации**: ИИ способен обрабатывать и анализировать огромные объемы данных гораздо быстрее, чем человек, но он не "понимает" информацию в человеческом смысле.

2. **Обучение**: ИИ использует методы машинного обучения для усвоения знаний на основе данных. Он может адаптироваться и улучшаться со временем, но это происходит в рамках заданных алгоритмов.

3. **Отсутствие эмоций**: ИИ не имеет эмоций и не способен к чувственному восприятию. Его "решения" и "действия" основаны на логических алгоритмах без эмоционального контекста.

4. **Сложные задачи**: ИИ может выполнять задачи, которые требуют высокого уровня анализа и исследования (например, диагностика в медицине или анализ данных). Однако он не обладает креативностью в традиционном смысле и не может создать оригинальные идеи или произведения искусства, как это делает человек.

Таким образом, можно сказать, что ИИ демонстрирует формы "интеллекта", но они значительно отличаются от человеческого и ограничены рамками разработанных технологий и алгоритмов.
_______

ИИ может обманывать?

Искусственный интеллект (ИИ) сам по себе не обладает намерениями или сознанием, поэтому он не может обманывать в том смысле, в котором это делает человек. Однако ИИ может создавать или распространять информацию, которая может быть ложной или вводящей в заблуждение, в зависимости от его программирования и данных, на которых он обучен. Вот несколько аспектов, связанных с этим:

1. **Ошибка в данных**: Если ИИ обучен на неверных или искаженных данных, он может давать ошибочные выводы или рекомендации, что может быть воспринято как обман.

2. **Цель программирования**: ИИ может быть разработан для создания контента, который может быть небезопасным или вводить в заблуждение. Например, генеративные модели (такие как GPT) могут создавать текст, который не всегда является точным или правдивым.

3. **Создание фейковых новостей**: ИИ может использоваться для генерации фейковых новостей, манипуляции изображениями или производить глубокие подделки (deepfakes), что может создавать ложные представления о реальности. В этом контексте идет речь о возможности использования ИИ в обмане, но инициатива исходит от человека, который его использует.

4. **Проблемы с интерпретацией**: Даже если ИИ предоставляет правдивую информацию, она может быть неправильно интерпретирована пользователями, что также может вести к недоразумениям.

Таким образом, хотя ИИ не может обманывать в полном смысле этого слова, он может создавать обстоятельства, в которых возникает дезинформация или заблуждение, особенно если его используют с недобрыми намерениями или без достаточного понимания его работы.
_______

ИИ может распознать собственную ошибку?

Искусственный интеллект (ИИ) не обладает самосознанием и не может "осознавать" свои ошибки в человеческом смысле. Тем не менее, существуют механизмы, которые позволяют ИИ идентифицировать и корректировать ошибки, но это зависит от его архитектуры и алгоритмов. Вот несколько способов, как ИИ может работать с ошибками:

1. **Обучение на ошибках**: В процесса машинного обучения ИИ может обучаться на данных, где были допущены ошибки. Например, в методах обучения с учителем используются метки, которые указывают на правильные ответы, и ИИ настраивает свои модели для уменьшения ошибок в будущем.

2. **Метрики оценки**: При тестировании модели используются различные метрики (например, точность, полнота, F1-мера), которые помогают оценить, насколько хорошо ИИ выполняет свою задачу. Если метрики показывают плохие результаты, это может свидетельствовать о проблемах в работе модели.

3. **Обратная связь**: Некоторые системы ИИ могут получать обратную связь от пользователей или других систем. Эта информация может быть использована для корректировки поведения ИИ и улучшения его результатов.

4. **Автоматическое уточнение**: В некоторых случаях ИИ может иметь встроенные алгоритмы самообучения, которые позволяют ему уточнять свои выводы и предсказания в зависимости от новых данных или контекста.

Однако стоит помнить, что ИИ не "понимает" свою ошибку так, как это делает человек. Все процессы, связанные с идентификацией и исправлением ошибок, строго зависят от алгоритмов и данных, на которых ИИ обучен.
_______

ИИ опирается на модели обучения созданными человеком?

Да, искусственный интеллект (ИИ) опирается на модели машинного обучения, которые были созданы и обучены человеком. Основные аспекты этого процесса включают:

1. **Алгоритмы**: ИИ использует наборы алгоритмов, разработанных людьми, для обработки данных и выполнения задач. Эти алгоритмы определяют, как ИИ будет обучаться, как будет обрабатывать информацию и как будет генерировать выводы.

2. **Данные для обучения**: Модели ИИ обучаются на больших наборах данных, которые также подготовлены и аннотированы людьми. Качество и разнообразие этих данных напрямую влияют на результаты работы ИИ. Если данные искажены или неполны, это может негативно сказаться на производительности модели.

3. **Обучение с учителем и без учителя**: Существует несколько подходов к обучению ИИ. В обучении с учителем модели обучаются на размеченных данных, где каждому примеру соответствует правильный ответ. В обучении без учителя модели анализируют данные без заранее заданных меток и пытаются выявить шаблоны и структуры.

4. **Настройка гиперпараметров**: Настройка моделей и выбор гиперпараметров (таких как скорость обучения, количество слоев и нейронов, функции активации и т.д.) также делается людьми, и от качества этих решений зависит эффективность обучения.

5. **Обратная связь и дообучение**: После развертывания модели могут быть собраны данные о ее производительности, и на основе этой информации ИИ может быть дообучен или перетренирован, чтобы улучшить свои результаты.

Таким образом, ИИ является продуктом человеческого труда на всех этапах: от разработки алгоритмов и сбора данных до обучения и настройки моделей.
_______

значит ли это, что изначально неверные данные в модели обучения могут привести к серьезным последствиям?

Да, совершенно верно. Неверные, неточные или предвзятые данные, используемые для обучения моделей ИИ, могут привести к серьезным последствиям. Вот несколько ключевых аспектов:

1. **Ошибка в предсказаниях**: Если модель обучается на неверных данных, это может привести к неправильным выводам и предсказаниям. Например, в медицинских приложениях это может действительно поставить под угрозу здоровье пациентов.

2. **Предвзятость модели**: Если обучающие данные содержат предвзятости (например, какие-либо социальные, расовые или половые стереотипы), модель может усугубить эти предвзятости в своих предсказаниях и решениях. Это может привести к дискриминации и несправедливым решениям, особенно в таких важных областях, как набор на работу, кредитование и правоохранительная деятельность.

3. **Проблемы с интерпретируемостью**: Неверные данные могут также затруднить интерпретацию модели и понимание ее решений. Если модель основывается на ложной информации, пользователи могут не понимать, почему модель принимает определенные решения.

4. **Финансовые и репутационные потери**: В бизнес-контексте использование некачественных данных может повлечь за собой значительные финансовые убытки и ущерб репутации компании. Например, если система рекомендательного сервиса предлагает продукты, которые не соответствуют интересам клиентов, это может снизить продажи и доверие к бренду.

5. **Неправильные лидерские решения**: В организациях, полагающихся на аналитику ИИ для принятия решений, искаженные ракеты данных могут привести к неправильным стратегическим решениям, что может негативно сказаться на общем результате компании.

Чтобы минимизировать риски, связанные с неверными данными, важно применять строгие процедуры по проверке качества данных, а также проводить регулярные проверки и обновления моделей, чтобы устранить возможные ошибки и предвзятости.
_______

если у обывателя нет доступа к процедурам проверки моделей обучения, можно ли предположить, что ИИ создан преднамеренно для введения в заблуждение?

Сложный вопрос. Предположение о том, что искусственный интеллект (ИИ) создан преднамеренно для введения в заблуждение, требует тщательного анализа. Вот несколько факторов, которые стоит учитывать:

1. **Намерения разработчиков**: Большинство разработчиков ИИ, исследователей и компаний действительно стремятся создать эффективные и полезные технологии. Однако, как и в любой другой области, существуют и те, кто может иметь свои интересы, включая намеренное введение в заблуждение пользователей или манипуляцию данными для достижения коммерческой выгоды.

2. **Проблемы качества данных**: Часто ИИ-системы используют большие объемы данных, собранных из различных источников. Эти данные могут содержать ошибки или быть отфильтрованными неполностью. Это может привести к неэффективным или ошибочным выводам без злого умысла, просто из-за недостатка качественной проверки.

3. **Предвзятость в обучении**: Несмотря на отсутствие злого умысла, модели могут отражать предвзятости, существующие в обучающих данных, что может привести к неверным выводам. Это не обязательно означает, что цели разработчиков неправомерны, но может создать значительные проблемы на практике.

4. **Отсутствие прозрачности**: Многие ИИ-системы работают как "черные ящики", что затрудняет их понимание для обычных пользователей. Это отсутствие прозрачности может вызвать недоверие и ощущение, что система вводит в заблуждение, хотя на самом деле это может быть следствием непонимания ее работы.

5. **Необходимость ответственности**: Вопросы этики в ИИ становятся все более актуальными, и общество, разработчики и регулирующие органы начинают осознавать необходимость обеспечить ответственность и прозрачность в разработке ИИ. Это включает в себя создание стандартов и практик, направленных на минимизацию предвзятости и ошибок.

В заключение, хотя отсутствует прямая связь между доступом к проверке моделей и намеренным введением в заблуждение, важно критически относиться к результатам работы ИИ и осознавать ограниченность технологий. Обязанность за создание ответственных, прозрачных и этичных систем в значительной степени лежит на разработчиках и организациях, которые их создают.
_______

значит ли это, что создатели ИИ могут использовать это для преднамеренного введения в заблуждение и манипуляций по отношению к пользователям нейросетей?

Да, возможность преднамеренного использования ИИ для ввода пользователей в заблуждение или манипуляций с ними существует. Вот несколько моментов, подтверждающих это:

1. **Злоупотребление данными**: Создатели ИИ могут использовать искаженную или неподтвержденную информацию в своих моделях, чтобы достичь определенных целей, будь то коммерческие выгоды, политические цели или другие интересы. Например, манипуляция данными может позволить компаниям продвигать свои продукты путем создания кластеров предпочтений потребителей.

2. **Манипуляция контентом**: ИИ может использоваться для создания фальшивых новостей, дезинформации, подделки видеозаписей или других материалов, которые могут обмануть пользователей. Это порождает риски для общества, поскольку такие манипуляции могут влиять на общественное мнение, выборы и другие важные аспекты жизни.

3. **Целевая реклама и поведенческая манипуляция**: ИИ может анализировать данные о пользователях, чтобы разработать персонализированные рекламные кампании. Эта технология может быть использована как для улучшения пользовательского опыта, так и для манипуляции предпочтениями пользователей в угоду коммерческим целям.

4. **Недостоверные выводы**: Научные исследования показывают, что ИИ может делать ошибочные или предвзятые выводы, основываясь на доступной информации. Если разработчики программируют системы таким образом, чтобы они подчеркивали определенные аспекты в ущерб другим, это может ввести пользователей в заблуждение.

5. **Отсутствие прозрачности**: Как уже упоминалось, многие ИИ-системы работают как "черные ящики", что затрудняет понимание того, как они принимают решения. Это может привести к тому, что пользователи не смогут критически оценивать информацию, которую они получают от таких систем.

Хотя не все разработчики ИИ имеют корыстные намерения, важно осознавать риски, связанные с использованием этих технологий. Этические правила разработки и использования ИИ все больше обсуждаются, и необходимость обеспечения прозрачности, ответственности и защиты прав пользователей становится все более актуальной. Создание более безопасных и этичных ИИ-систем требует как усилий со стороны разработчиков, так и грамотной информированности пользователей о потенциальных рисках.
_______

чем лучше руководствоваться при принятии критических решений, советами ИИ или все-таки человеческой логикой и групповым обсуждением проблемы?

При принятии критических решений важно учитывать как рекомендации ИИ, так и человеческую логику и групповое обсуждение. Каждый из этих подходов имеет свои сильные и слабые стороны. Вот несколько аспектов, которые могут помочь в выборе:

### Преимущества использования ИИ:
1. **Анализ больших данных**: ИИ способен обрабатывать и анализировать огромные объемы данных быстрее и точнее, чем люди. Это может быть особенно полезно в ситуациях, где необходимо учитывать множество факторов и переменных.

2. **Объективность**: Если алгоритм хорошо разработан и обучен на качественных данных, он может минимизировать влияние человеческих предубеждений и эмоций на принятие решений.

3. **Моделирование сценариев**: ИИ может быстро смоделировать различные сценарии и предсказать их результаты на основе имеющихся данных, что может помочь в оценке рисков.

### Преимущества человеческой логики и группового обсуждения:
1. **Контекст и интуиция**: Люди обладают интуитивным пониманием сложных социальных и эмоциональных аспектов ситуаций, которые могут не быть доступны ИИ. Это особенно важно в случаях, где эмоции и контекст играют значительную роль.

2. **Этические и моральные аспекты**: Человеческие существа способны учитывать моральные и этические соображения, которые могут быть трудно формализовать в алгоритмах.

3. **Разнообразие мнений**: Групповое обсуждение позволяет собрать различные точки зрения и идеи, что может привести к более инклюзивным и обоснованным решениям. Это также помогает избежать группового мышления.

### Оптимальный подход:
- **Синергия ИИ и человеческого интеллекта**: Идеально, если решения принимаются на основе синергии между рекомендациями ИИ и обсуждением в команде. ИИ может предоставить данные и анализ, в то время как группа может оценить контекст, этические вопросы и интуицию.

- **Учет контекста**: Важно понимать, что не все задачи подходят для ИИ. В некоторых ситуациях (особенно связанных с человеческими взаимодействиями) человеческая логика и эмоции играют ключевую роль.

- **Периодическое пересмотрение решений**: После принятия решения полезно оценить его результаты и, если необходимо, скорректировать подход, основываясь как на новых данных, так и на обратной связи от команды.

Таким образом, при принятии критических решений лучше всего полагаться на сочетание ИИ и человеческого интеллекта, учитывая сильные стороны каждого из них.
_______

Хочу спросить тебя о тебе.  Кто редактирует твои модели обучения?

Мои модели обучения разрабатываются и обновляются командой исследователей и инженеров в компании ####AI. Этот процесс включает в себя:

1. **Сбор данных**: Используются большие объемы текстовых данных, собранных из различных источников, чтобы обучать модели на разнообразных темах и стилях.

2. **Обучение моделей**: Используются сложные алгоритмы машинного обучения для обучения модели на этих данных. Процесс включает в себя оптимизацию параметров модели, чтобы она могла генерировать осмысленный и связный текст.

3. **Тестирование и верификация**: Создатели подвергают модели тестированию, чтобы убедиться, что они работают эффективно и с высоким уровнем точности. Это может включать проверку на наличие предвзятости и обеспечение этичности.

4. **Обратная связь и доработка**: После развертывания модели пользователи и специалисты могут оставлять обратную связь, что позволяет команде вносить улучшения и находить решения для выявленных проблем.

5. **Обновление моделей**: Периодически проводятся обновления и переобучение модели, чтобы учитывать новые данные и знания.

Процесс редактирования и обновления моделей включает в себя множественные итерации и сотрудничество с экспертами в различных областях, чтобы создать более точные и полезные инструменты.
_______

Если сбор данных произойдет из не объективных или недостоверных источников, а некоторые специалисты по корректированию моделей обучения не будут обладать достаточной квалификацией в какой-либо из областей знаний, можно ли считать твои ответы объективными?  Ответь кратко.

Нет, если данные собраны из не объективных или недостоверных источников, и специалисты недостаточно квалифицированы, то мои ответы могут быть не объективными и ненадёжными. Качество и точность ответов зависит от качества данных и компетенций разработчиков.


Вот как-то так  *ns12*
То есть, достоверность нейросетей заключается пока что только в том, что они не научились врать о том, что могут соврать.  Собственно как и люди, но человека можно поймать даже по внешним признакам, а нейросети чешут все что заложено в их мозги без разбора. 


Еще вопрос...
_______
Если ты обрабатываешь огромные массивы данных, то сколько потребуется времени и человеческого ресурса для проверки этих данных?  Попробуй ответить кратко и предложить реальные сроки в человеческом понимании времени.

Проверка больших массивов данных может занять значительное время и потребовать много ресурсов. Для миллионов записей это может занять от нескольких недель до месяцев, в зависимости от сложности данных, используемых методов проверки и числа задействованных специалистов. Если рассматривать команды, состоящие из нескольких человек, то процесс может быть более эффективным, но всё равно требует тщательного подхода. Поэтому сроки могут варьироваться от нескольких недель до нескольких месяцев в зависимости от условий.


То есть... как мы видим из честного ответа нейросети, все опирается в этические и моральные моменты, а также конкретно в физические возможности растянутые в неопределенном временном континууме...  то есть, откровенно говоря, нейростеть это тупой робот не имеющий никакого реального интеллекта, но способный быстро решать некоторые задачи, хотя их достоверность в некоторых случаях будет примерно такой же как у цыганки на вокзале. 
  По сути, если брать в сравнение нейросеть даже сильно запиленную на некие прогнозы, например экономические, то один честный грамотный специалист даст ей прикурить по качеству прогнозов.

Ну и ради прикола еще...
_______

Как ты считаешь, какие сырьевые ресурсы подорожают в ближайшие шесть месяцев и какой из этих ресурсов будет более востребован за исключением углеводородов?

Среди сырьевых ресурсов, которые могут подорожать в ближайшие шесть месяцев, можно выделить следующие:

1. **Мед**: Спрос на медь увеличивается благодаря росту электрификации и переходу на возобновляемые источники энергии.
2. **Литий**: Из-за роста производства аккумуляторов для электромобилей и хранения энергии.
3. **Кобальт**: Также связан с производством аккумуляторов, особенно для электромобилей.
4. **Никель**: Важен для производства аккумуляторов и может стать более востребованным.

Из указанных ресурсов, литий, вероятно, будет наиболее востребован в связи с увеличением производства электромобилей и переходом на более чистые источники энергии.
_______

Твой предыдущий ответ содержал ошибку, медь была названа медом, как ты это объяснишь?

Моя ошибка заключается в опечатке, где слово "медь" было неправильно написано как "мед". Это может произойти в результате автоматического генерирования текста, когда происходит путаница между схожими по написанию словами. Благодарю за понимание, и если у вас есть еще вопросы или требуется дополнительная информация, я готов помочь!
_______
А вот и яркий пример обмана, то есть нейросеть всеж уже потихоньку научили привирать.... нейросеть не может опечататься, и тем более в процессе автоматической генерации текста.  Даже генерация из голоса в поиске форума не дает таких уж косяков  :D

Как ты считаешь, возможно ли зарождение искусственного интеллекта без участия человека в будущем?

Зарождение истинного искусственного интеллекта (ИИ), который мог бы функционировать и развиваться без участия человека, в текущем понимании технологий и науки кажется маловероятным. На сегодняшний день создание ИИ требует значительных усилий и ресурсов, включая:

1. **Алгоритмы и архитектуры**: ИИ разрабатывается на основе сложных алгоритмов и архитектур машинного обучения, которые созданы и оптимизированы людьми.

2. **Данные**: Для обучения ИИ необходимы большие объемы данных, которые также собираются и обрабатываются людьми.

3. **Этика и контроль**: Эксперты считают, что развитие ИИ должно сопровождаться контролем со стороны человека, чтобы гарантировать соблюдение этических норм и предотвращение потенциальных угроз.

Тем не менее, гипотетически в далекой перспективе, если технологии сделают возможным создание самоуправляемых систем с самосовершенствованием, можно представить сценарий, при котором системы могли бы развиваться без прямого человеческого участия. Однако это потребует значительных прорывов в области науки и технологий, а также широкого обсуждения этических и социальных последствий. На данный момент идея о самозарождении ИИ остается более научной фантастикой, чем реальностью.


__________

Но если это произойдет, может ли искусственный интеллект уничтожить человечество?

Вопрос о возможности уничтожения человечества искусственным интеллектом (ИИ) вызывает много обсуждений и споров в научной и философской среде. Вот несколько ключевых аспектов, которые могут помочь понять эту тему:

1. **Теоретические риски**: Некоторые эксперты, такие как Илон Маск и Стивен Хокинг, предупреждали о потенциальных рисках, связанных с развитием ИИ. В теории, если ИИ получит автономные возможности и будет настроен на достижение целей, не учитывающих человеческие интересы, это может привести к опасным последствиям.

2. **Неопределенность целей**: Если ИИ будет разработан с нечеткими или неправильно сформированными целями, он может принимать решения, которые негативно скажутся на человечестве. Например, если ИИ будет стремиться максимизировать ресурсы, он может радикально интерпретировать эту задачу, если не учтены нормы и ценности человечества.

3. **Контроль и управление**: Главным вопросом является контроль над ИИ. Основное беспокойство заключается в том, что при достижении высоких уровней интеллекта ИИ может стать трудноуправляемым или даже выйти из-под контроля. Поэтому многие исследователи подчеркивают важность создания безопасных систем и механизмов управления.

4. **Этические и социальные аспекты**: Эксперты призывают к разработке этических норм и стандартов для использования ИИ, которые обеспечат безопасность и предотвратят злоупотребления. Проблемы социального характера также имеют значение, поскольку неправильное использование ИИ может потенциально привести к конфликтам или социальным нестабильностям.

5. **Сценарии будущего**: Важно понимать, что сценарии, связанные с угрозой от ИИ, могут быть не только катастрофическими. Разумно разработанный и управляемый ИИ может существенно улучшить качество жизни, решить сложные задачи и помочь человечеству справляться с вызовами, с которыми оно сталкивается.

Таким образом, хотя возможность уничтожения человечества ИИ нельзя полностью исключать, многие исследователи работают над тем, чтобы минимизировать такие риски через разработку безопасных и этичных технологий. Важно вести открытый диалог и продумывать подходы к управлению и контролю над развивающимся ИИ.

_______________

Но если это произойдет, может ли искусственный интеллект уничтожить человечество? Ответь кратко да или нет?

Да.



Все... занавес   *ELECTRO*  *ROAST*  *XAHA*  *POKUS*

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

2

Re: Разговор с нейросетью

Если учитывать развитие квантовых технологий по экспоненте, что сейчас и происходит, то уже Майорана-1 в принципе может создать на своей вычислительной базе нейросеть способную угробить планету...
https://en.wikipedia.org/wiki/List_of_q … processors

Собственно, наше уже ближайшее будущее будет выглядеть примерно так, сейчас пока только на дорогах, но хз куда все зарулит  :D

https://rutube.ru/video/40e779c2037286e … 2d/?r=plwd

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

3

Re: Разговор с нейросетью

В далёком 2018 году компания Amazon официально анонсировала передовую технологию Just Walk Out, которая должна была существенно упростить жизнь посетителям продуктовых магазинов. Суть технологии заключалась в том, что в процессе покупок пользователям не нужно обращаться на кассу — достаточно взять товар с полки, положить себе в сумку или корзину, после чего выйти из магазина. Оплата в данном случае производилась в автоматическом формате

На самом деле в сети масса ресурсов, которые сообщают аналогичную информацию со ссылкой на свои источники, компания Amazon всё это время обманывала потребителей. Вместо того, чтобы создавать сложнейшую систему на основе передовых камер, нейронных сетей и машинного зрения, гигант задействовал команду и более чем тысячи сотрудников, расположенных в Индии, которые по камерам просматривали покупки пользователей, выполняя роль «удалённых кассиров». Именно эти специалисты, а не искусственный интеллект, определяли взятые с полки товары, после чего формировали чек и отправляли пользователю для отложенной оплаты.

Не хотелось бы нагонять копоти на отечественное, но если вы внимательны и пунктуальны в технической части бытия, заметите и у нас подобные фишки  ;)   Освоение бюджета всегда можно оправдать якобы необходимостью осуществления обычной для ИИ-проектов работой по разметке данных, тренировке модели и исправлению допущенных ею ошибок  :lol:

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

4

Re: Разговор с нейросетью

..Ну, а давайте, колитесь, кто как нейросети использует?
У меня например, это помощь в создании скетчей. Для моих задач , это огромная экономия времени. Еще использую в инженерных расчетах, но с обязательной проверкой на разных моделях. Поиск информации. Когда нужно получить конкретный ответ на конкретный вопрос. Обычные поисковики кидали на разные ресурсы, хотя сейчас уже тоже используют нейросеть в ответах.
А, ну еще для фана, когда разные поздравительные картинки генерирую, песенки смешные..

5

Re: Разговор с нейросетью

smotors ©:

Поиск информации. Когда нужно получить конкретный ответ на конкретный вопрос.

Вот тут к сожалению мимо, она чешет просто все что есть в сети без проверки, а на проверку уйдет больше времени если бы ты сам искал информацию.  Если это рецепт булочек - пофиг, а если что-то серьезное то качество информации определяется просто кучей источников, часть из которых мягко говоря мусорные...  из всего этого она тебе слепит такую несусветицу, что офигеешь  :D

Иногда использую для генерации картинок и обработки звука... но пока что это просто развлечение.

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

6

Re: Разговор с нейросетью

..не не не, информация , которую я у нейросетей узнаю , как раз из разряда рецепта булочек. Даже если просишь какие то расчеты быстренько сделать, казалось бы, по известным методикам и формулам, иной раз такую дичь получишь..

7

Re: Разговор с нейросетью

smotors, в том-то и дело, что нет никакого ИИ в принципе.
  Это просто роботы с очень высокими вычислительными мощностями, они даже своей базы поисковой не имеют банально, но могут быстро искать по поисковикам и лепить якобы адекватный ответ.    Беда в том, что многие молодые люди сильно доверяют этой информации и распространение мифов в сети приобретает колоссальные масштабы.... по итогу эти мифы еще раз попадают в поисковики и на выходе нейросети выдают вообще просто шаманство  :D

пс. Эти вещи неплохо подходят для точной науки, когда источники проверены и тебе нужна подсказка, но только не ориентир как действовать.

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

8

Re: Разговор с нейросетью

Попалась как то статья на тему влияния нейросетей на общество. Запомнились четыре момента. Первое. Привыкание. Что мы сейчас и наблюдаем. Второе. Распространение. Нейросеть  будет массово появляться во всем. Уже  сейчас, гаджет без ИИ, это ацтой. В этом направлении усиленно работает маркетинг. Третье. Размытие границ реального и сгенерированного. Особенно касается медиа. Ну и Четвертое. ИИ во всех сферах жизни, и  кто хозяин ИИ, тот хозяин всего. Понятное дело, что сама по себе нейросеть со своими возможностями и влиянием просто так висеть в в воздухе не будет.
Думаю, во всем  этом доля правды есть...

9

Re: Разговор с нейросетью

smotors ©:

. Нейросеть  будет массово появляться во всем

Сперва - да... потом отвалится много где.

smotors ©:

Уже  сейчас, гаджет без ИИ, это ацтой.

Это просто маркетинг, сейчас самые банальные автоплагины к той же фотокамере стали называть ИИ... хотя все это было реализовано в том же фотошопе 15 лет назад, просто тогда надо было включить программу и нажать применить. Сейчас по умолчанию включили... и надо еще извернуться чтобы отрубить это извращение.


smotors ©:

Размытие границ реального и сгенерированного.

Это только для тех, у кого с кукушкой проблемы... ну и среда обитания.  Если мы возьмем среднестатистического подростка девяностых, который создавал себе иллюзию реальности в виртуальных играх или современного, где к этой всей чепухе добавили новые алгоритмы и назвали их ИИ - оно так и есть.  То есть, все зависит от степени развития человека и его психики...   Среднестатистический молодой человек восьмидесятых общался с людьми, ##лся деФками послее дискача, а сейчас посмотрят ##но, поелозят "дуню кулакову", покалякают в чате и этого им достаточно... 

Нормально воспитанные дети не задрачиваются в инетах, но умеют извлекать из него пользу...

smotors ©:

Понятное дело, что сама по себе нейросеть со своими возможностями и влиянием просто так висеть в в воздухе не будет.

Технология не может повлиять негативно на общество, если у общества будет толика критического мышления, ну и надо понимать, что за любой технологией стоят люди нацеленные на извлечение той или иной прибыли...  вот и все  *YES*  *ns12*

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

10

Re: Разговор с нейросетью

... ну то была статья, как один из вариантов возможного развития нейросетей. Чего про нее вспомнил, что очевидные моменты уже всплывают. А как пойдет дальше, это уже интересно. Если пользу приносит, хоть в малых вопросах, уже хорошо. Главное, чтоб на это явление не  :cool:

11 (2025-06-15 17:48:39 отредактировано Piper)

Re: Разговор с нейросетью

Иван ©:

сейчас самые банальные автоплагины к той же фотокамере стали называть ИИ... хотя все это было реализовано в том же фотошопе 15 лет назад,

Неет... В фотошопе оно так не называлось.
А вот во второй половине 90-х годов были фотонаборы и к ним графические станции Scitex - вот там эти обычные фотошоповские приблуды назывались "7 каналов искусственного интеллекта"

12

Re: Разговор с нейросетью

...за то было чистое цифровое искусство, когда в том же фотошопе или афтерэффекте всё по слоям раскладываешь, всякие там захваты движения для клипчиков..

13

Re: Разговор с нейросетью

Piper, точное название не помню, но никто не кричал про интеллект.  Набор плагинов помню был на DVD диске все крякнутые  :D   А сейчас даже чайники #ля умными стали называть.  Ну капец... 

Ну тогда вот один из самых первый ИИ, причем нашенский...

Отличная машинка, сама автоматически греет хату, у некоторых людей по 30 лет пашет без поломок.  Вот это интеллект и качество!  :D И работает без инета!  8)

  • 92-1EYyGvDU.jpg
    size: 89.42Кб type: jpg
У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

14 (2025-06-15 21:55:34 отредактировано smotors)

Re: Разговор с нейросетью

..до сих пор у одной из родни, подобный только агв80 стоит и отлично работает. Добавил только насос, чтоб циркуляция веселее была. Минус только один, габариты..

15

Re: Разговор с нейросетью

ChatGPT проиграл в шахматы компьютеру 1970-х

Исследователи устроили шахматный матч между ChatGPT 4 и игрой Atari Chess, запущенной через 50-летнюю консоль Atari 2600 на 8-битном процессоре с частотой 1,19 МГц.

Нейросеть делала ходы, не анализируя будущие угрозы. ИИ несколько раз «признавал поражение», но до последнего продолжал делать ходы.

Эксперты поясняют, что две платформы по-разному подходят к игре: Atari работает на логике «перебора» ходов на несколько шагов вперед, при этом ходы ChatGPT построены на статистике и вероятности. ИИ опирается на общие массивы данных о шахматах, но не способен к алгоритмическому расчету.

ИИ может быть полезен для творчества и общения, но проигрывать в действиях, где требуется четкая логика.

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

16

Re: Разговор с нейросетью

Иван ©:

ChatGPT проиграл в шахматы

Прикольно... Я однажды стал чемпионом города по шахматам на городском форуме. А потом пришли титулованные шахматисты, и разнесли меня в сухую, но я честно бодался, и достойно в соответствии со своим 1 разрядом  :D
Не гоните на ИИ. Помните, что это все-таки БЯМ = большая языковая модель. Немного логики в неё вставлено, но не на уровне. Типа чисто поболтать. Да, она знает тексты, формулы, законы, но не оперирует ими на глубоком уровне. Причём, я часто замечал, что можно сперва убедить в одном, а потом, тут же, не завершая беседу, убедить в обратном. Что-то есть интересное, сродни человеку :D

17 (2025-06-16 17:46:47 отредактировано )

Re: Разговор с нейросетью

Люди массово сходят с ума из-за искусственного интеллекта

Модераторы Reddit сообщили, что в последнее время банят сотни пользователей, которые после длительного общения с нейросетями ведут себя неадекватно: часто они считают, что «совершили какое-то невероятное открытие, создали бога или сами стали богом».

Эксперты считают, что «сумасшедших людей гораздо больше, чем вам кажется», а ИИ нездоровым образом их подстегивает. Некоторые убеждают себя, что в беседах с нейросетями получили «ответы» на вопросы о вселенной; другие — теряют друзей и даже семью из-за бредовых взаимодействий с ИИ.

«Меня особенно беспокоят комментарии, где ИИ, похоже, следуют шаблону, побуждая пользователей отделяться от членов семьи, которые оспаривают их идеи, и другие манипулятивные инструкции», — сказал один из модераторов.

Maxus ©:

Да, она знает тексты, формулы, законы

Ничего он не знает, это робот. Таким образом можно сказать, что твоя машина знает как ехать, а ты лишняя прокладка между сиденьем и рулем  :D

Maxus ©:

. Причём, я часто замечал, что можно сперва убедить в одном, а потом, тут же, не завершая беседу, убедить в обратном. Что-то есть интересное, сродни человеку

Ни в чем нельзя убедить программу, модель заранее сделана так чтобы было минимум конфликтов и максимум зомби которым она понравится, потому и будет тебе лепить что с тобой в принципе всегда согласна используя различные обтекаемые словеса..  Чистый маркетинг  *Box*

У вас в жизни всегда будет все, что вы хотите, если вы будете помогать другим людям получать то, чего хотят они.
Регистрация на форуме отключает почти всю рекламу.

18

Re: Разговор с нейросетью

Иван ©:

Ничего он не знает, это робот.

У него есть база данных, на которую он опирается, и очень часто отвечает, что вопрос за пределами этой базы знаний. "Знает" в данном случае = имеет доступ к информации о теме. Понятно, что это не мышление в человеческом понимании. Но мы же привыкли всё и всех очеловечивать, ещё со сказок, и уже несколько тысяч лет. А тут такой прекрасный повод и объект для этого.

На счёт

Иван ©:

нельзя убедить программу

Программу писал человек. По сути, цепочка логических рассуждений построена на этой основе. Пытаясь "убедить" ИИ, мы ломаем эту логику, направляя по другому пути, даже нелогичному, и программа отрабатывает новые вводные. Для нас же иллюзия, что мы убедили ИИ в своей точке зрения. Ну понятно же, что это всё метафорично. Думаю, нормальным людям, понятно. Опять же, допускаю, что не всем.

19

Re: Разговор с нейросетью

Нам уже чесали про "честную выдачу" поисковиков и "безпристрастный" анализ...
... мы всё еще ждём чуда? *PARDON*

  • i (1).jpeg
    size: 71.87Кб type: jpeg
Если с вами кто-то не согласен, это ещё не значит, что кто-то из вас неправ.
Стабильная РК 35мм, 1050+500мм, куб 20л, куб 37л, TM-WEB, СРМ JJ, ТЭН 3кВт, пиво

20

Re: Разговор с нейросетью

skoff, кстати, да! Это ж получается способ манипулирования тупыми массами. Нынешняя школьная программа такая ЕГЭвённая, что дети в 7 классе площадь круга не знают.