3063
0
21 июня 09:41
Время чтения 1 минута

Илья Суцкевер и коллеги основали компанию для разработки безопасного суперинтеллекта

Илья Суцкевер, бывший сооснователь OpenAI, вместе с Дэниелом Гроссом и Дэниелом Леви основали компанию Safe Superintelligence. Компания направлена на создание безопасного суперинтеллекта, который будет служить человечеству, не угрожая его существован

Илья Суцкевер и коллеги основали компанию для разработки безопасного суперинтеллекта

19 июня 2024 года было объявлено о создании компании Safe Superintelligence. Основателями стали Илья Суцкевер, бывший сооснователь и главный научный сотрудник OpenAI, Дэниел Гросс, известный предприниматель и инвестор в сфере технологий, и Дэниел Леви, предприниматель и инвестор.

Цель Safe Superintelligence - разработка безопасного суперинтеллекта (SSI), который не только не угрожает человечеству, но и служит его благу. Все усилия команды, инвесторов и бизнес-модель компании направлены на достижение этой цели.

Компания планирует решать вопросы безопасности, используя революционные инженерные и научные достижения. Основной принцип работы Safe Superintelligence — развивать возможности как можно быстрее, при этом уделяя первостепенное внимание безопасности. Safe Superintelligence зарегистрирована в США и открыла офисы в Пало-Альто (США) и Тель-Авиве (Израиль), намереваясь привлекать лучших технических специалистов со всего мира.

Илья Суцкевер, один из основателей OpenAI, уже имеет большой опыт в разработке ИИ. Его уход из OpenAI и участие в проекте Safe Superintelligence подчеркивают серьезность намерений новой компании. Суцкевер известен своими достижениями в области машинного обучения и глубоких нейронных сетей, и его новая инициатива направлена на решение одной из самых актуальных задач в современной науке и технологии - обеспечение безопасности ИИ.

В отличие от других компаний, занимающихся разработкой ИИ, Safe Superintelligence полностью сосредоточена на безопасности. Это позволит компании избегать отвлекающих факторов и коммерческого давления, что особенно важно в контексте разработки технологий, способных изменить мир. Компания намерена разрабатывать и внедрять технологии, которые будут соответствовать самым высоким стандартам безопасности и этики.

Среди прочих планов Safe Superintelligence - создание открытых стандартов и протоколов для разработки безопасного ИИ, что может помочь другим компаниям и исследовательским организациям следовать лучшим практикам. Эта инициатива может стать важным шагом на пути к развитию технологий и стимулировать другие компании пересмотреть свои приоритеты в области ИИ, уделяя больше внимания безопасности и этическим аспектам.

Успех Safe Superintelligence может стать важным шагом на пути к развитию технологий и стимулировать другие компании пересмотреть свои приоритеты в области ИИ, уделяя больше внимания безопасности и этическим аспектам.

Ещё по теме
Обсуждение темы
Отправить