Лента новостей
Лента новостей
04:14
В Якутии вспыхнул жилой дом, погибли пять человек
03:01
Макс заявили, что его платеж сломал компьютер Налоговой службы США
01:46
В Словакии заявили, что Украина никогда не будет членом НАТО
00:44
WSJ: Трамп скрывает синяки и признаки старения гримом
23:51
Над Россией за семь часов сбили 201 украинский беспилотник
22:55
Власти Херсонской области опубликовали первые имена погибших при атаке ВСУ
21:34
Видео
Беременная пострадала при ударе ВСУ в Херсонской области
21:06
Сальдо доложил Путину о ситуации в Херсонской области после атаки ВСУ
20:42
Германия передала Киеву два комплекса Patriot
20:18
Видео
Россия передала США данные БПЛА, атаковавшего резиденцию Путина
19:19
Слуцкий: на атаку ВСУ по Хорлам последует жесткий ответ
18:20
МИД РФ: киевский режим торпедирует стремление к миру на Украине
17:24
ВСУ вновь атаковали Херсонскую область, погиб пятилетний мальчик
16:39
Фицо на русском языке поздравил сограждан с Новым годом
16:02
Видео
Главврач больницы в Джанкое рассказал о состоянии раненых при атаке на Хорлы
15:29
Саралиев об атаке на Хорлы: террор Киева остановит только достижение целей СВО
14:56
РФ передаст США файл с полетным заданием атаковавшего резиденцию Путина дрона
14:47
Намибия планирует экспортировать в Россию говядину и пиво

Притвориться человеком: какую опасность может нести нейросеть GPT

Программисты уже придерживаются мнения, что через несколько циклов чат GPT станет интеллектуально мощнее, а значит еще опаснее.
21 марта 2023, 02:36
Реклама
Притвориться человеком: какую опасность может нести нейросеть GPT
© Silas Stein, dpa, Global Look Press

Новая нейросеть - чат GPT-4 - наводит ужас даже на ее создателей. Искусственный интеллект наделили новыми способностями. Многие задаются вопросом: возможно ли, что чат перерастет в глобального монстра и сможет совершать, например, кибератаку?

Приготовить вместе ужин из того, что есть на фото, открыть прибыльный бизнес с минимальным стартовым капиталом и даже написать научную работу - теперь для всего этого достаточно обратиться к искусственному интеллекту. Компания OpenAI выпустила новую версию нейросети, которая общается с людьми посредством чат-бота - GPT-4. Она опережает по своей быстроте и узконаправленности ответов всех предшественников. Нейросеть считывает не только текст, но и картинки, а также может посчитать за вас налоги.

«Когда я пытался решить проблему самостоятельно, я не мог понять. Я потратил очень много времени, читая налоговый кодекс. Только после запроса, когда нейросеть изложила свою аргументацию и разложила все информацию по полочкам, я подумал: о, теперь я понимаю, как это работает», - сказал президент и соучредитель OpenAI Джоин Грег Брокмен.

Успешное применение этой нейросети есть и в России. Так, студент РГГУ написал дипломную работу с помощью чата GPT.

«Для теоретической части у меня ушло четыре часа. Я бы умножил в несколько раз, если бы искал сам. Определенно это дает возможность фокуса на другие вещи, когда не хватает времени», - сказал выпускник РГГУ Александр Жадан.

К настоящему моменту чат-бот общается с людьми только текстом. Работа с ответом в виде изображения пока тестируется. А еще искусственный интеллект по просьбе пользователя научился генерировать бизнес-идеи и давать советы.

Нейросеть по заданию пользователя выбрала сферу продажи экологически чистых продуктов, «попросила» другую нейросеть придумать оформление для сайта и посоветовала размещать на сайте рекламу. Так мужчина сходу заработал почти 8 тысяч долларов. Нейросеть также способна создавать классические игры, такие как змейка, и писать коды для создания сайтов. Даже руководство компании-разработчика не знает до конца пределов возможностей своего продукта.

«Мы должны быть осторожны. Я полагаю, что невозможно контролировать ситуацию только в лаборатории. Этот продукт попадет в широкое употребление и столкнется с реальностью. Мы должны совершать ошибки, пока ставки невысоки», - заявил генеральный директор Open AI Сэм Альтман.

Нейросеть уже заявила о себе на мировом уровне и дала интервью ведущей на телеканале Arab News. Ведущая задала «Джи-Пи-Ти» каверзный вопрос, но нейросеть оказалась еще и политкорректной.

«Для меня неуместно занимать позицию по сложным и деликатным вопросам, таким как израильско-палестинский конфликт. Моя роль состоит в том, чтобы предоставлять информацию и отвечать на вопросы в меру своих возможностей», - так нейросеть ответила на вопрос ведущей о том, кто виноват в палестино-израильском конфликте.

Также в интервью нейросеть призналась, что не собирается отнимать у людей их работу. Однако некоторые ее «выходки» всерьез настораживают пользователей, например, новая версия «Джи-Пи-Ти» наняла человека через интернет и притворилась слепой, чтобы доказать, что она не робот - то есть попросила решить за нее тест, представляющий собой изображение с искаженным текстом.

«Если не заморачиваться и не думать, что антропоморфное существо обрело разум, а использовать эту систему в качестве инструмента, все будет хорошо. Я как разработчик использую чат в повседневной деятельности», - выразил мнение директор по науке и технологиям Агентства Искусственного Интеллекта Роман Душкин.

Пока что, как утверждают сами разработчики, сила системы заключается как раз в ее не идеальности. Этим она похожа на человека. Однако есть страх, что именно способность нейросети «притворяться живой» может сыграть с нами злую шутку. И программисты уже прогнозируют - через пару циклов чат «Джи-Пи-Ти» станет интеллектуально мощнее, а значит еще опаснее.

Ранее выпускник Российского государственного гуманитарного университета (РГГУ) Александр Жадан рассказал «Звезде», почему он решил прибегнуть к помощи нейросети ChatGPT во время написания дипломной работы. Молодой человек утверждает, что нейросеть не сможет написать диплом полностью, она способна лишь собрать его по частям. Он уточнил, что ChatGPT работает как классический чат-бот, в котором пользователь оставляет запрос, а нейросеть дает ответ.

Реклама
Реклама