Reuters: до увольнения Альтмана из OpenAI ученые сообщили об опасном открытии в сфере ИИ
За четыре дня до увольнения генерального директора технологической компании OpenAI Сэма Альтмана группа из нескольких ученых направила совету директоров письмо с предупреждением.
В нем сообщалось о мощном открытии искусственного интеллекта (ИИ), которое, по их словам, может угрожать человечеству. Об этом случае рассказало агентство Reuters, ссылаясь на два источника.
Отмечается, что речь шла о разработке Q* (произносится как Q-Star) и о том, что создатель ChatGPT добился некоторого успеха в ней. Внутри компании полагают, что это может стать прорывом в поиске сверхинтеллекта, «также известного как общий искусственный интеллект (AGI)».
«OpenAI определяет AGI как системы искусственного интеллекта, которые умнее людей. С учетом огромных вычислительных ресурсов, новая модель смогла решить некоторые математические задачи. По словам источника, несмотря на то, что Q* решает математические задачи только на уровне учеников начальной школы, успешное выполнение таких тестов вселяет в исследователей большой оптимизм в отношении будущего успеха Q*», - пояснило агентство.
Ранее «Звезда» рассказывала о мнении разработчика Романа Душкина, который считает, что искусственный интеллект может ошибаться при проверке заданий «гениальных учеников».
Душкин сказал, что без систем ИИ сегодня не обойтись, в том числе в сфере образования. Будут разрабатываться технологии на его основе - компьютерное зрение, распознавание образов, в частности букв и слов, лингвистический анализ, сопоставление текста с заданием, добавил разработчик систем ИИ.