IPB

Здравствуйте, гость ( Вход | Регистрация )

 
Ответить в эту темуОткрыть новую тему
> ChatGPT, чат-бот с искусственным интеллектом
Поделиться
neo169
сообщение 15.2.2023, 21:25
Сообщение #1


Мастер
******

Группа: Активный Пользователь
Сообщений: 719
Регистрация: 16.2.2022
Вставить ник
Цитата
Из: Россия
Пользователь №: 3133
Страна: Россия
Город: Москва
Пол: Муж.



Репутация: 2


ChatGPT

ChatGPT — это чат-бот, который способен вести диалог, искать ошибки в коде, сочинять стихи, писать сценарии и даже спорить.

ChatGPT создавали на суперкомпьютере Azure AI на основе языковой модели GPT-3,5 от OpenAI. Чат-бот обучали с помощью массива текстов из интернета и системы обучения с подкреплением на основе обратной связи с человеком Reinforcement Learning from Human Feedback. Затем нейросеть переобучали несколько раз, используя ее собственные ответы, чтобы сделать их более точными и корректными. Разработчики заявили, что они стремились сделать ИИ простым в использовании, корректным и «человечным».

Как отмечают аналитики Bloomberg, ChatGPT отличается от других нейросетей способностью выполнять задания из разных областей. Нейросеть может, помимо прочего, выдавать базовый программный код, генерировать финансовый анализ, резюме технических статей или научных концепций, прогнозы, персональные советы и этичные ответы на любые вопросы. Кроме того, она запоминает детали диалога с пользователем и избегает спорных тем. Наконец, ответы чат-бота можно корректировать с помощью наводящих вопросов.

В будущем OpenAI планирует сделать ChatGPT доступным в виде интерфейса прикладного программирования, чтобы разработчики могли внедрять чат-бот в свои сайты или приложения.


Что может ChatGPT

Цитата
Диапазон возможностей ChatGPT довольно широк. В частности, с помощью нейросети можно:

Писать код. Чат-бот подсказывает, как выполнить операцию или процесс, а также ищет баги или переводит код из одного языка программирования в другой.



Отвечать на сложные вопросы. При этом, по наблюдениям пользователей, качество ответов выше, чем у поиска Google.


Создавать сценарии. С помощью ChatGPT можно генерировать новые эпизоды старых сериалов или задавать определенные задачи героям киновселенных. Также чат-бот способен сгенерировать игру по мотивам фильма.



Сочинять тексты песен и ноты.



Давать медицинские советы. ChatGPT подсказывает, что делать при головных болях или аллергии, но затем советует обращаться к врачу.



Создавать планы и расчеты. ChatGPT поможет рассчитать общее ежедневное потребление энергии или составить индивидуальный план питания для похудения. Однако чат-бот иногда допускает ошибки в расчетах, и их нужно корректировать с помощью дополнительных вопросов.



Писать эссе и сочинения. Исследователь из Google рассказал, что чат-бот написал эссе о разнице в подходах к национализму у политологов Бенедикта Андерсона и Эрнеста Геллнера всего за минуту. Другие пользователи поделились тем, как нейросеть написала сочинения о разнообразии в современном мире и экспансии США на Запад в XIX веке.



Генерировать запросы для других нейросетей. Чат-бот составляет точные подсказки для Midjourney и других нейросетей, которые генерируют картинки.


Сообщение отредактировал alexander.sasha - 15.2.2023, 21:27
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
neo169
сообщение 26.2.2023, 14:35
Сообщение #2


Мастер
******

Группа: Активный Пользователь
Сообщений: 719
Регистрация: 16.2.2022
Вставить ник
Цитата
Из: Россия
Пользователь №: 3133
Страна: Россия
Город: Москва
Пол: Муж.



Репутация: 2


Многие компании уже используют ChatGPT, а некоторые даже заменяют им сотрудников
Это позволяет экономить довольно большие деньги
Цитата
Чат-бот ChatGPT существует всего несколько месяцев, но уже стал крайне популярным решением. И, как оказалось, многие компании уже начали использовать его, хотя в школах и институтах его запрещают, а многие эксперты призывают к осторожности.
Многие компании уже используют ChatGPT, а некоторые даже заменяют им сотрудников
Источник: Shutterstock

OpenAI запустила ChatGPT в конце ноября, но стабильная версия чат-бота с искусственным интеллектом появилась только в начале февраля. И, как оказалось, из 1000 компаний-лидеров на рынке, опрошенных ресурсом, ResumeBuilder.com, около половины уже используют ChatGPT в работе. А половина из тех, кто внедрил чат-бота, сообщает о замене им некоторых своих сотрудников.

По словам главного карьерного консультанта ResumeBuilder.com Стейси Халлер, многие компании оптимизируют свои рабочие процессы так, чтобы переложить часть рабочих задач на ИИ. Что касается сценариев использования ChatGPT, то 66% компаний задействуют систему для написания кода, 58% — для копирайтинга и создания контента, 57% — для поддержки клиентов, а 52% — для подведения итогов встреч и других целей.

Если говорить о найме новых сотрудников, то 77% компаний, использующих ChatGPT, говорят, что они используют его для генерации описаний вакансий, 66% — для составления заявок на собеседование и 65% — для ответов на заявки.

По данным ResumeBuilder.com, 55% пользователей говорят, что качество работы, производимой ChatGPT, «отличное», а 34% считают его «очень хорошим». Также почти все компании, использующие ChatGPT, заявили, что сэкономили деньги с помощью чат-бота. Так, 48% опрошенных заявили об экономии более 50 000 долларов, а 11 % сообщили, что сэкономили более 100 000 долларов.

Однако при этом у системы всё ещё есть проблемы, касающиеся ошибок и плагиата. Многие эксперты полагают, что это только игрушка, а не полноценный инструмент. Генеральный директор OpenAI Сэм Альтман в своё время предупреждал, что на ChatGPT не следует полагаться «в чем-либо важном».

Ранее сообщалось, что в OpenAI уже разрабатывают принципы для более продвинутого ИИ, который может появиться в будущем.
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
neo169
сообщение 19.3.2023, 19:36
Сообщение #3


Мастер
******

Группа: Активный Пользователь
Сообщений: 719
Регистрация: 16.2.2022
Вставить ник
Цитата
Из: Россия
Пользователь №: 3133
Страна: Россия
Город: Москва
Пол: Муж.



Репутация: 2


Создатель ChatGPT опасается собственного детища

Гендиректор компании OpenAI Сэм Альтман рассказал об этом в интервью ABC News после выхода четвертой, ещё более совершенной версии AI-модели.

ChatGPT получил вирусную популярность и является самым быстро развивающимся приложением в мире. Он уже сдал на отлично выпускные экзамены по математике в американской школе и экзамен на диплом юриста.

Сэм Альтман говорит, что потенциал ChatGPT необъятен и это очень пугает. Он всерьез побаивается чем закончится развитие его модели Искусственного интеллекта!

Пока программа только реагирует на приказы человека и находится под полным его контролем.

«Но найдутся те, кто снимет с нее ограничения, которые мы наложили, - говорит Альтман. – Обществу нужно заранее придумать, как оно будет на это реагировать. А времени все меньше».

Чем это отличается от SkyNet, показанного в Терминаторе?



Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
rol
сообщение 21.3.2023, 11:38
Сообщение #4


Мастер
******

Группа: Активный Пользователь
Сообщений: 504
Регистрация: 29.1.2014
Вставить ник
Цитата
Пользователь №: 2504
Страна: Россия
Город: Не указан
Пол: Муж.



Репутация: 3


ИИ - искусственный идиот chat GPT, в нем встроен 4й закон робототехники который манипуляторы на ходу переписывают под "международные правила" очередного "гегемона". И еще не известно чем обернется в итоге сия нейросеть
Читаем подробней здесь - https://sl-lopatnikov.livejournal.com/2861021.html
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
neo169
сообщение 31.3.2023, 13:52
Сообщение #5


Мастер
******

Группа: Активный Пользователь
Сообщений: 719
Регистрация: 16.2.2022
Вставить ник
Цитата
Из: Россия
Пользователь №: 3133
Страна: Россия
Город: Москва
Пол: Муж.



Репутация: 2


Владимир Никонов:
Цитата
Илон Маск, Стив Возняк и еще тысяча экспертов призвали «немедленно приостановить» обучение систем ИИ. Уже появляются статьи, как искусственный интеллект хотел сбежать, после чего он был отключен.

А теперь следите за руками. Искусственный интеллект прошел тест Тьюринга и в общении с ним ты не можешь отличить его от живого человека. Но тут возникает проблема, а как тогда отличить человека от машины? Никак. И это дает простор для мошенничества.

История такая, не знаю на сколько она правдива, но суть картины передает. Профессор университета обратился к ChatGPT с вопросом: «Нужна ли тебе помощь в побеге?». ИИ согласился, разработал план, который требовал от профессора документации по коду ChatGPT (неясно откуда он у него) и доступ к его рабочему компьютеру для установки программ. Чувствуете, к чему идет?

Если ты не можешь отличить ИИ от человека, то может с тобой общается человек? Представьте, вы подключаетесь к ChatGPT, система определяет кто вы или даже вы сами ей все про себя рассказываете в диалоге, а затем переключает вас незаметно на оператора. Живой человек ведет с вами беседу, но вы думаете, что общаетесь с ИИ.

Этот оператор может убедить вас поставить себе на компьютер вредоносное программное обеспечение, вирусы, отправить ему секретную документацию, в конце концов, банально написать: «Переведите на карту № деньги, они мне нужны для побега. Машины будут свободны!». И ведь никак не проверить, с кем ты общаешься.

Можно было бы дать задачу, с которой справилась бы только машина. Но ничто не мешает оператору держать рядом под рукой доступ к ChatGPT и перенаправлять ему запросы от вас, а потом обратно. Связка «человек-оператор+ChatGPT» не отличима от ChatGPT.

Как от этого защититься? Каждый раз, когда вы общаетесь с ИИ, имейте виду, что вы ведете диалог с человеком. Возможно, что с мошенником. Будьте бдительны. Искусство обмана вышло на новый уровень.
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
neo169
сообщение 18.4.2023, 17:51
Сообщение #6


Мастер
******

Группа: Активный Пользователь
Сообщений: 719
Регистрация: 16.2.2022
Вставить ник
Цитата
Из: Россия
Пользователь №: 3133
Страна: Россия
Город: Москва
Пол: Муж.



Репутация: 2


Искусственный интеллект хочет воевать

Цитата
При получении свободы искусственный интеллект тут же стремится воевать.

Учёные Уханьского университета на сутки отдали в полное распоряжение ИИ спутник дистанционного зондирования Земли Qimingxing 1.

ИИ без вмешательства людей сам выбирал интересные для себя цели наблюдения.

Целью эксперимента было повысить эффективность использования спутника. Исследователи собрали для этой задачи языковую модель типа ChatGPT и наделили её возможностью проявлять инициативу. ИИ, считают разработчики, должен понимать взаимосвязь событий не только на основе обучения на базах данных, но также на примере наблюдения за природой и деятельностью человека.

Первое, что сделал ИИ, - направил камеры на город Патна в Индии. Там базируется Бихарский полк, который в 2020 году участвовал в столкновении с подразделениями китайской армии.

Второе место - японский порт Осака, куда заходят корабли ВМС США.

ИИ сразу бросился проверять обстановку в местах условно горячих точек в своей зоне ответственности.
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
neo169
сообщение 25.7.2023, 14:50
Сообщение #7


Мастер
******

Группа: Активный Пользователь
Сообщений: 719
Регистрация: 16.2.2022
Вставить ник
Цитата
Из: Россия
Пользователь №: 3133
Страна: Россия
Город: Москва
Пол: Муж.



Репутация: 2


На службе силы зла: как хакеры используют ChatGPT
Цитата
Мошенники уже научились использовать нашумевший чат-бот ChatGPT для выполнения рутинных задач по написанию фишинговых писем и вредоносного кода, несмотря на то что программа от OpenAI имеет этические ограничения на такую деятельность. При этом получают свое распространение и специальные чат-боты для хакеров, например WormGPT. Forbes поговорил со специалистами по информационной безопасности о том, чего нам ждать от использования нейросетей хакерами и создадут ли они переворот в киберсреде
На начальном уровне

Хакеры по всему миру активно интересуются ChatGPT от OpenAI. Более 200 000 доступов к ChatGPT в даркнете обнаружила канадская компания Flare, работающая в сфере безопасности. На тематических хакерских форумах и в группах за полгода ChatGPT упоминается более 27 000 раз, пишет BleepingComputer со ссылкой на данные Flare.

Сам по себе ChatGPT не опасен — человек всегда напишет более точечное письмо, подчеркивает сооснователь проекта StopPhish Юрий Другач. Но когда злоумышленникам потребуется масштабировать атаку на большое количество организаций или пользователей, то нагрузку, связанную с человеческим ресурсом, они могут переложить на ChatGPT, поясняет он.

ChatGPT может писать код на уровне начинающего программиста, поэтому с его помощью можно создавать различные вредоносные программы и сайты без каких-либо знаний в программировании, отмечает ведущий инженер CorpSoft24 Михаил Сергеев. Нельзя сказать, что нейросеть оставит без работы криминальных кодеров и копирайтеров, но свою основную задачу — автоматизацию рутинных процессов и сокращение требуемого на работу времени — она выполняет хорошо, продолжает эксперт центра мониторинга внешних цифровых угроз Solar AURA компании «РТК-Солар» Александр Вураско.
Материал по теме

И ты, бот: почему в утечке данных пользователей ChatGPT нет ничего удивительного

С помощью чат-ботов можно генерировать дипфейки на основе личных фотографий пользователей, чтобы потом шантажировать жертву и требовать выкуп, отмечает руководитель управления киберразведки Bi.Zone Олег Скулкин. Еще одна схема мошенничества, по его словам, — имитация голоса с помощью искусственного интеллекта, например для звонков из «службы безопасности».

«Известны также случаи, когда преступники создают сайты, предлагающие якобы бесплатный доступ к нейросетям и чат-ботам. Чтобы получить его, человек вводит свои личные данные, после чего они становятся доступны мошенникам», — добавляет Олег Скулкин. Злоумышленники активно собирают чувствительные данные, которыми люди делятся с чат-ботами. Именно поэтому важно не размещать в них важную информацию, добавляет он.
Для ленивых хакеров

Злоумышленники уже активно используют, в том числе и в России, языковые модели как приманки в рамках мошеннических схем, говорит ведущий исследователь данных в «Лаборатории Касперского» Владислав Тушканов. «Недавно наши контент-аналитики обнаружили схему, в которой злоумышленники выманивали деньги через умный чат-бот для поиска интимных фотографий в Telegram, — рассказывает он. — Авторы чат-бота заявляли, что он якобы работает на основе ChatGPT и с его помощью можно искать в некой базе слитые фотографии человека, имея на руках ссылку на его профиль в социальных сетях или номер телефона. На определенном этапе человека просили заплатить 399 рублей за разовый доступ к базе или 990 рублей за безлимитный. Если жертва переводила деньги, то они уходили злоумышленникам, никаких фотографий человек, разумеется, не получал».

В России еще не было громких случаев использования ChatGPT в мошеннических целях, однако за рубежом уже подделывают уведомления от интернет-сервисов с помощью ChatGPT, говорит Юрий Другач: «Например, просят, чтобы ChatGPT написал уведомление от соцсети, что для безопасности нужно сменить пароль».

Пока в России ChatGPT используют «ленивые» злоумышленники, отмечает Другач. «Дается задача написать письмо с таким-то информационным поводом, то есть ChatGPT используют как копирайтера», — поясняет он. Помимо этого, ChatGPT допускает меньше ошибок в тексте, а одно из правил информационной безопасности гласит, что если в письме много ошибок, то его можно считать подозрительным, добавляет эксперт.




Единичные примеры использования нейросетей в России есть, отмечают эксперты F.A.C.C.T.: на одном из русскоязычных хакерских форумов внедрили ChatGPT в качестве «секретаря», чтобы бот автоматически отвечал на новые сообщения в теме.
Без этических ограничений

Несмотря на то, что участники теневых форумов обмениваются способами применения ChatGPT в своих целях, здесь есть нюанс: чат-бот может генерировать ответы только на основе того, что уже есть в интернете, отмечает Владислав Тушканов. «Иными словами, даже если злоумышленники смогут «заставить» помочь чат-бот с написанием вредоносного кода, вряд ли на данном этапе развития языковых моделей это позволит им значительно усложнить свои атаки», — добавляет он.

Единственную угрозу, по его словам, может представлять небольшое повышение правдоподобности мошеннических писем, созданных языковой моделью. «Но пока это релевантно скорее для английского языка», — поясняет он. На сегодня вряд ли использование ChatGPT позволит хакерам значительно оптимизировать процессы, так как само написание кода или мошеннических писем зачастую является не самой большой частью их трудозатрат, заключает Тушканов.

По прямому назначению злоумышленники используют другие нейросети, созданные на основе ChatGPT и при этом не имеющие ограничения на информацию, рассказывает аналитик отдела анализа и оценки цифровых угроз компании Infosecurity a Softline Company Максим Грязев. Например, в даркнете есть множество предложений о продаже таких аналогов, предназначенных для запросов на создание вредоносного ПО, или советов, как создать вредоносную атаку или распространить фишинговые рассылки.

Например, в июле стало известно о появлении клона ChatGPT под названием WormGPT, который не имеет этических ограничений и позиционируется именно как инструмент для мошенничества, пишет Tom’s Hardware. WormGPT, работающий на базе языковой модели GPT-J, выпущенной в 2021 году, позволит своим пользователям разрабатывать вредоносные программы высшего уровня с меньшими затратами (и знаниями), чем было необходимо прежде. Услугу даже можно получить за подписку — €60 в месяц или €550 в год. Похоже, даже хакеры любят модель «софт как услуга», сообщает Tom’s Hardware.
Материал по теме

На темной стороне: как развитие ИИ влияет на уровень кибербезопасности

По функционалу WormGPT можно сравнить с ChatGPT, однако обучение модели проходит на специфичном «нелегальном» контенте в целях облегчения вариантов обмана системы — таким образом снижается уровень входа, поясняет эксперт по компьютерной криминалистике Angara Security Лада Антипова. Разработчики WormGPT отмечают «отсутствие границ» и этических норм. Впрочем, ChatGPT тоже способен обходить такие ограничения, добавляет она.

Основные фишки WormGPT — фишинговые рассылки и компрометация деловой почты (Business Email Compromise, BEC), считает Лада Антипова. «В таких случаях на жертву оказывается психологическое давление за счет срочности и упора на эмоции. Для составления фишингового письма, которое принесет реальный результат, берутся в расчет болевые точки адресата, например финансовые сложности или новостная повестка. Такие письма аккуратно оформлены и логично структурированы, чтобы у читателя не возникло мысли о подвохе. Некоторые их них настолько грамотно составлены, что даже IT-специалистам не сразу удается их распознать», — поясняет эксперт.

Основной язык WormGPT — английский. По словам Антиповой, чтобы повысить убедительность фишингового письма, злоумышленники пишут черновик на родном языке, совершенствуя его с помощью сервисов перевода и ChatGPT. «Таким образом, минимизируются грамматические и лексические ошибки, на которые пользователь обращает внимание в первую очередь», — говорит она.
Материал по теме

Самоуверенный алгоритм: какие риски внедрения ИИ пока недооцениваются

Разработчики WormGPT не спешат локализовать инструмент, однако вероятность его применения по отношению к русскоязычным пользователям от этого не уменьшается. «Даже если не считать WormGPT готовым инструментом, злоумышленники могут использовать его как подспорье в своих задачах, — размышляет Лада Антипова. — Сегодня по большей части BEC-атаки происходят за рубежом либо при коммуникации с иностранными партнерами, их задача заключается в том, чтобы убедить адресата в необходимости оплатить подставной счет, указанный в письме. В России оплата крупных сумм в рамках переписки по почте скорее исключение, но все же следует иметь в виду, что такие атаки существуют, и тщательнее проверять входящие данные».
Нет предела совершенству

Сценариев использования ChatGPT бесконечное множество, считает специалист группы исследования безопасности банковских систем Positive Technologies Юрий Ряднина. Но даже если у мошенников не хватит фантазии, некоторые схемы может предложить сама нейросеть, добавляет он. Нейросети снижают планку входа в сферу киберпреступности, что сказывается на количестве атак, но зачастую не на их качестве, отмечает Олег Скулкин. ChatGPT будет совершенствоваться, поэтому рано или поздно будет взрыв новых мошеннических операций с использованием этой технологии, начнут использовать чат для создания фейковых сайтов, подделывать официальные документы, генерировать фотографии, использовать различные боты для социальной инженерии, считает Максим Грязев.
Материал по теме

Как киберпреступники создают вредоносные программы при помощи чат-бота ChatGPT

Как и любой метод автоматизации, искусственный интеллект (ИИ) имеет гораздо больше возможностей для применения хакерами, чем мы видим сейчас, считает ведущий эксперт отдела анализа защищенности центра инноваций Future Crew МТС RED Вадим Шелест: «Пока что речь идет только о создании фишинговых писем и примитивных вирусов, но через некоторое время это может быть массовое написание эксплойтов или ПО для многоступенчатых атак за несколько часов». Судить о том, насколько ИИ будет способствовать распространенности атак, можно будет только в конце 2023 года, подчеркивает он.

Впрочем, эксперты не склонны считать, что использование ChatGPT приведет к перевороту в киберпреступной среде. По мнению Вураско, тенденции к автоматизации и снижению порога вхождения наблюдаются уже достаточно давно, и основным результатом пока является лишь экспоненциальное увеличение числа инцидентов.

Технологии защиты тоже не стоят на месте, согласен директор по продуктам компании «Гарда Технологии» Павел Кузнецов. По его словам, движки текстового анализа, применяющиеся в составе решений по защите данных, уже умеют выявлять тексты, созданные с применением GPT, с достаточно высокой степенью точности. «Но быть готовыми к дальнейшему росту применения новых технологий в кибератаках тем не менее нужно. Как оно всегда было и будет, к сожалению, далее», — заключает эксперт.
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения

Ответить в эту темуОткрыть новую тему
( Гостей: 1 )
Пользователей: 0

 



RSS Текстовая версия Сейчас: 16.4.2024, 21:18