Лента новостей
Лента новостей
13:18
Кремль: контактов с администрацией США после удара «Орешником» не было
13:17
Кремль: МО РФ проработает механизмы оповещения мирных жителей Украины
13:16
Песков: Россия предпочла бы, чтобы США прислушались к заявлениям Путина раньше
13:10
В Кремле объяснили главный посыл Западу в обращении Путина
13:03
Видео
Замкомвзвода рассказал, как остановил колонну ВСУ, подбив первую машину
12:40
AFP: из-за «Орешника» созвали экстренное заседание Совета Украина - НАТО
12:11
В РФ удвоилось число жалоб в ЦБ из-за блокировки счетов
12:04
Видео
Командир Т-90М сравнил танк со снайперской винтовкой
11:52
Песков заявил, что Россия нуждается в мигрантах
11:43
Видео
Экипажи Ка-52М сожгли украинскую технику в курском приграничье
11:34
Орбан призвал серьезно отнестись к заявлению Путина
11:18
Видео
Нахимовцам показали мультфильм о строителях атомных подлодок
10:59
Видео
Джабаров: «Орешник» стал полной неожиданностью для Запада
10:38
Видео
Пусть Байден услышит: как Запад отреагировал на применение «Орешника»
10:15
Российские ученые нашли в Арктике гигантские вирусы
10:10
Видео
Белоусов заявил, что ВС РФ сорвали всю кампанию 2025 года для ВСУ
10:09
Видео
Белоусов вручил награды отличившимся бойцам группировки войск «Север»
10:02
Видео
Белоусову представили используемое Киевом оружие НАТО
Притвориться человеком: какую опасность может нести нейросеть GPT
© Silas Stein, dpa, Global Look Press

Притвориться человеком: какую опасность может нести нейросеть GPT

Программисты уже придерживаются мнения, что через несколько циклов чат GPT станет интеллектуально мощнее, а значит еще опаснее.
21 марта 2023, 02:36
Реклама
Притвориться человеком: какую опасность может нести нейросеть GPT
© Silas Stein, dpa, Global Look Press

Новая нейросеть - чат GPT-4 - наводит ужас даже на ее создателей. Искусственный интеллект наделили новыми способностями. Многие задаются вопросом: возможно ли, что чат перерастет в глобального монстра и сможет совершать, например, кибератаку?

Приготовить вместе ужин из того, что есть на фото, открыть прибыльный бизнес с минимальным стартовым капиталом и даже написать научную работу - теперь для всего этого достаточно обратиться к искусственному интеллекту. Компания OpenAI выпустила новую версию нейросети, которая общается с людьми посредством чат-бота - GPT-4. Она опережает по своей быстроте и узконаправленности ответов всех предшественников. Нейросеть считывает не только текст, но и картинки, а также может посчитать за вас налоги.

«Когда я пытался решить проблему самостоятельно, я не мог понять. Я потратил очень много времени, читая налоговый кодекс. Только после запроса, когда нейросеть изложила свою аргументацию и разложила все информацию по полочкам, я подумал: о, теперь я понимаю, как это работает», - сказал президент и соучредитель OpenAI Джоин Грег Брокмен.

Успешное применение этой нейросети есть и в России. Так, студент РГГУ написал дипломную работу с помощью чата GPT.

«Для теоретической части у меня ушло четыре часа. Я бы умножил в несколько раз, если бы искал сам. Определенно это дает возможность фокуса на другие вещи, когда не хватает времени», - сказал выпускник РГГУ Александр Жадан.

К настоящему моменту чат-бот общается с людьми только текстом. Работа с ответом в виде изображения пока тестируется. А еще искусственный интеллект по просьбе пользователя научился генерировать бизнес-идеи и давать советы.

Нейросеть по заданию пользователя выбрала сферу продажи экологически чистых продуктов, «попросила» другую нейросеть придумать оформление для сайта и посоветовала размещать на сайте рекламу. Так мужчина сходу заработал почти 8 тысяч долларов. Нейросеть также способна создавать классические игры, такие как змейка, и писать коды для создания сайтов. Даже руководство компании-разработчика не знает до конца пределов возможностей своего продукта.

«Мы должны быть осторожны. Я полагаю, что невозможно контролировать ситуацию только в лаборатории. Этот продукт попадет в широкое употребление и столкнется с реальностью. Мы должны совершать ошибки, пока ставки невысоки», - заявил генеральный директор Open AI Сэм Альтман.

Нейросеть уже заявила о себе на мировом уровне и дала интервью ведущей на телеканале Arab News. Ведущая задала «Джи-Пи-Ти» каверзный вопрос, но нейросеть оказалась еще и политкорректной.

«Для меня неуместно занимать позицию по сложным и деликатным вопросам, таким как израильско-палестинский конфликт. Моя роль состоит в том, чтобы предоставлять информацию и отвечать на вопросы в меру своих возможностей», - так нейросеть ответила на вопрос ведущей о том, кто виноват в палестино-израильском конфликте.

Также в интервью нейросеть призналась, что не собирается отнимать у людей их работу. Однако некоторые ее «выходки» всерьез настораживают пользователей, например, новая версия «Джи-Пи-Ти» наняла человека через интернет и притворилась слепой, чтобы доказать, что она не робот - то есть попросила решить за нее тест, представляющий собой изображение с искаженным текстом.

«Если не заморачиваться и не думать, что антропоморфное существо обрело разум, а использовать эту систему в качестве инструмента, все будет хорошо. Я как разработчик использую чат в повседневной деятельности», - выразил мнение директор по науке и технологиям Агентства Искусственного Интеллекта Роман Душкин.

Пока что, как утверждают сами разработчики, сила системы заключается как раз в ее не идеальности. Этим она похожа на человека. Однако есть страх, что именно способность нейросети «притворяться живой» может сыграть с нами злую шутку. И программисты уже прогнозируют - через пару циклов чат «Джи-Пи-Ти» станет интеллектуально мощнее, а значит еще опаснее.

Ранее выпускник Российского государственного гуманитарного университета (РГГУ) Александр Жадан рассказал «Звезде», почему он решил прибегнуть к помощи нейросети ChatGPT во время написания дипломной работы. Молодой человек утверждает, что нейросеть не сможет написать диплом полностью, она способна лишь собрать его по частям. Он уточнил, что ChatGPT работает как классический чат-бот, в котором пользователь оставляет запрос, а нейросеть дает ответ.

Реклама
Реклама