Лента новостей
Лента новостей
10:51
Мошенники обманули двух жительниц Карелии под предлогом продажи котят
10:44
Видео
Радиоперехват выявил падение боевого духа ВСУ при боях за Цветковое
10:44
В Краснодарском крае задержали министра ГО и ЧС Штрикова
10:27
На Кубани в жилом доме произошел взрыв, один человек под завалами
09:59
В нескольких районах Запорожской области отключили электричество
09:51
Видео
Сотни туристов не могут выехать из Териберки из-за метели
09:39
НАБУ обвинило экс-министра энергетики Украины в коррупции
09:32
Видео
ВС РФ поразили хранилище горюче-смазочных материалов в Полтавской области
09:14
Видео
Фонтаны лавы из вулкана на Гавайях достигли 300 метров
09:01
Видео
В Италии 14 февраля обрушилась «Арка влюбленных» из-за непогоды
08:45
В Кремле заявили, что не будут судиться из-за масок с лицом Путина
08:27
Синоптик предупредил об облачной спирали и морозах в Москве
08:07
Видео
Юрист о сходах снега и льда с крыш: ссылаться на форс-мажор нельзя
08:01
Ким Чен Ын открыл улицу в честь участников боевых действий в Курской области
07:32
В Британии могут закрыть доступ к соцсетям для детей до 16 лет
07:14
Экс-советник Пентагона заявил о возможности приезда Макрона в Москву
06:33
Видео
Расчет Д-30 тульских десантников разнес опорник ВСУ в Сумской области
06:27
Школьники из приграничных регионов смогут не сдавать ЕГЭ и ОГЭ в 2026 году

Притвориться человеком: какую опасность может нести нейросеть GPT

Программисты уже придерживаются мнения, что через несколько циклов чат GPT станет интеллектуально мощнее, а значит еще опаснее.
21 марта 2023, 02:36
Реклама
Притвориться человеком: какую опасность может нести нейросеть GPT
© Silas Stein, dpa, Global Look Press

Новая нейросеть - чат GPT-4 - наводит ужас даже на ее создателей. Искусственный интеллект наделили новыми способностями. Многие задаются вопросом: возможно ли, что чат перерастет в глобального монстра и сможет совершать, например, кибератаку?

Приготовить вместе ужин из того, что есть на фото, открыть прибыльный бизнес с минимальным стартовым капиталом и даже написать научную работу - теперь для всего этого достаточно обратиться к искусственному интеллекту. Компания OpenAI выпустила новую версию нейросети, которая общается с людьми посредством чат-бота - GPT-4. Она опережает по своей быстроте и узконаправленности ответов всех предшественников. Нейросеть считывает не только текст, но и картинки, а также может посчитать за вас налоги.

«Когда я пытался решить проблему самостоятельно, я не мог понять. Я потратил очень много времени, читая налоговый кодекс. Только после запроса, когда нейросеть изложила свою аргументацию и разложила все информацию по полочкам, я подумал: о, теперь я понимаю, как это работает», - сказал президент и соучредитель OpenAI Джоин Грег Брокмен.

Успешное применение этой нейросети есть и в России. Так, студент РГГУ написал дипломную работу с помощью чата GPT.

«Для теоретической части у меня ушло четыре часа. Я бы умножил в несколько раз, если бы искал сам. Определенно это дает возможность фокуса на другие вещи, когда не хватает времени», - сказал выпускник РГГУ Александр Жадан.

К настоящему моменту чат-бот общается с людьми только текстом. Работа с ответом в виде изображения пока тестируется. А еще искусственный интеллект по просьбе пользователя научился генерировать бизнес-идеи и давать советы.

Нейросеть по заданию пользователя выбрала сферу продажи экологически чистых продуктов, «попросила» другую нейросеть придумать оформление для сайта и посоветовала размещать на сайте рекламу. Так мужчина сходу заработал почти 8 тысяч долларов. Нейросеть также способна создавать классические игры, такие как змейка, и писать коды для создания сайтов. Даже руководство компании-разработчика не знает до конца пределов возможностей своего продукта.

«Мы должны быть осторожны. Я полагаю, что невозможно контролировать ситуацию только в лаборатории. Этот продукт попадет в широкое употребление и столкнется с реальностью. Мы должны совершать ошибки, пока ставки невысоки», - заявил генеральный директор Open AI Сэм Альтман.

Нейросеть уже заявила о себе на мировом уровне и дала интервью ведущей на телеканале Arab News. Ведущая задала «Джи-Пи-Ти» каверзный вопрос, но нейросеть оказалась еще и политкорректной.

«Для меня неуместно занимать позицию по сложным и деликатным вопросам, таким как израильско-палестинский конфликт. Моя роль состоит в том, чтобы предоставлять информацию и отвечать на вопросы в меру своих возможностей», - так нейросеть ответила на вопрос ведущей о том, кто виноват в палестино-израильском конфликте.

Также в интервью нейросеть призналась, что не собирается отнимать у людей их работу. Однако некоторые ее «выходки» всерьез настораживают пользователей, например, новая версия «Джи-Пи-Ти» наняла человека через интернет и притворилась слепой, чтобы доказать, что она не робот - то есть попросила решить за нее тест, представляющий собой изображение с искаженным текстом.

«Если не заморачиваться и не думать, что антропоморфное существо обрело разум, а использовать эту систему в качестве инструмента, все будет хорошо. Я как разработчик использую чат в повседневной деятельности», - выразил мнение директор по науке и технологиям Агентства Искусственного Интеллекта Роман Душкин.

Пока что, как утверждают сами разработчики, сила системы заключается как раз в ее не идеальности. Этим она похожа на человека. Однако есть страх, что именно способность нейросети «притворяться живой» может сыграть с нами злую шутку. И программисты уже прогнозируют - через пару циклов чат «Джи-Пи-Ти» станет интеллектуально мощнее, а значит еще опаснее.

Ранее выпускник Российского государственного гуманитарного университета (РГГУ) Александр Жадан рассказал «Звезде», почему он решил прибегнуть к помощи нейросети ChatGPT во время написания дипломной работы. Молодой человек утверждает, что нейросеть не сможет написать диплом полностью, она способна лишь собрать его по частям. Он уточнил, что ChatGPT работает как классический чат-бот, в котором пользователь оставляет запрос, а нейросеть дает ответ.

Реклама
Реклама