Поддержать команду Зеркала
Беларусы на войне
  1. Военные аналитики: Украина начала вывод своих войск из Курской области
  2. «У нас другого пути не было». Поговорили с экс-силовиком, который пересекался с генпрокурором Шведом и был ранен на протестах 2020-го
  3. В Беларуси дорожает автомобильное топливо. На этот раз не на копейку
  4. Кремль молчит, а СМИ не знают, как освещать — как в России Z-сообщество и пропаганда отреагировали на итоги встречи Украины и США
  5. Кредиты на автомобили Geely снова подорожали. Под какие проценты сейчас выдают эти займы и сколько придется переплатить банку за 10 лет?
  6. Политика Трампа может напоминать хаос, но это не так: его тактику еще десять лет назад изучил американский журналист. Вот что он писал
  7. Возобновление военной помощи, немедленное прекращение огня: о чем договорились США и Украина на первой встрече по миру
  8. Этот аналитик пять лет назад предсказал, что Турчина назначат премьером. Спросили, станет ли он преемником Лукашенко
  9. КГК пожаловался Лукашенко на торговые сети, которые создают свои пекарни и конкурируют с хлебозаводами
  10. Большинство людей в мире дышат грязным воздухом. Нормам ВОЗ соответствуют только семь стран
  11. Лукашенко принял верительные грамоты от послов девяти стран. Кто в списке
  12. На рынке недвижимости, по всей видимости, грядет новая реальность. С чем это связано и каков прогноз у экспертов
  13. Столица России подверглась самой масштабной атаке беспилотников с начала войны
  14. Зеленский высказался по ситуации в Курской области
  15. Стало известно, кто совершил масштабную кибератаку на X. Маск утверждал, что следы ведут в Украину
  16. Карпенков объяснил, почему дроны «иногда падают на территории Беларуси», — понятней не стало


Исследователи из Университета штата Северная Каролина разработали инструмент для обучения ИИ, который поможет программам лучше учитывать то, что люди не всегда говорят правду, предоставляя личную информацию. Новый метод обучения разработан для использования в ситуациях, когда у людей есть экономический стимул лгать, например, при подаче заявки на ипотеку или попытке снизить страховые взносы, пишет «Хайтек».

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

ИИ уже используют в самых разных ситуациях для поддержки принятия решений. Такие программы, как правило, используют для прогнозирования математические алгоритмы, основанные исключительно на статистике. Проблема в том, что этот подход создает стимулы для людей лгать, например, чтобы получить ипотеку.

Исследователи разработали набор параметров, которые можно использовать для определения того, как ИИ учится делать прогнозы. Параметры помогают программе распознавать и учитывать экономические стимулы человека. Другими словами, ИИ учится распознавать обстоятельства, в которых человеку выгодно лгать.

В ходе моделирования, подтверждающего концепцию, модифицированный ИИ лучше обнаруживал неточную информацию от пользователей. Исследователи делают новые параметры обучения ИИ общедоступными, чтобы разработчики ИИ могли экспериментировать с ними.

«Это эффективно снижает стимул пользователя лгать при отправке информации. Однако маленькая ложь все равно может остаться незамеченной. Нам нужно проделать дополнительную работу, чтобы понять, где находится порог между „маленькой“ и „большой ложью“. В какой-то момент, если мы сделаем ИИ достаточно умным, мы сможем полностью устранить эти стимулы», — рассказал соавтор исследования Мехмет Канер.