Как опытный криптоинвестор и энтузиаст технологий, проявляющий большой интерес к пересечению искусственного интеллекта (ИИ) и блокчейна, я особенно заинтригован недавним заявлением Ильи Суцкевера, Дэниела Леви и Дэниела Гросса относительно их новой компании Safe Superintelligence. Inc. (SSI). Их приверженность одновременному развитию безопасности и возможностей ИИ является долгожданным глотком свежего воздуха во все более сложной и рискованной ситуации.
Илья Суцкевер, ранее занимавший должность главного научного директора OpenAI, и его коллеги Дэниел Леви, бывший инженер OpenAI, и инвестор Дэниел Гросс основали компанию Safe Superintelligence, Inc. (SSI) с целью одновременного повышения безопасности и возможностей ИИ.
Компания SSI со штаб-квартирой в Пало-Альто и Тель-Авиве стремится продвигать инновации в области искусственного интеллекта (ИИ), уделяя особое внимание обеспечению безопасности во всех своих начинаниях. Основатели компании подчеркивают важность особого внимания к безопасности, гарантируя, что на достижения не будет влиять краткосрочное коммерческое давление.
Я открываю новую компанию:
— Илья Суцкевер (@ilyasut), 19 июня 2024 г.
Илья Суцкевер отметил, что единая концентрация позволяет нам избегать отвлекающих факторов руководства и перерывов в производственном цикле. Кроме того, наша бизнес-структура гарантирует, что безопасность, защищенность и развитие будут защищены от краткосрочного давления рынка.
14 мая Суцкевер расстался с OpenAI после того, как он участвовал в прекращении полномочий генерального директора Сэма Альтмана и его выходе из совета директоров. Вскоре после этого Дэниел Леви также покинул OpenAI.
Дуэт был членами подразделения Superalignment OpenAI, созданного в июле 2023 года с миссией по управлению системами искусственного интеллекта, превосходящими человеческий интеллект, называемыми общим искусственным интеллектом (AGI). К сожалению, OpenAI распустила эту команду после ухода Суцкевера и других исследователей.
Виталик Бутерин, один из соучредителей Ethereum, считает общий искусственный интеллект (AGI) потенциально опасным, но полагает, что опасность перевешивается рисками корпоративной жадности и военного злоупотребления. Между тем, около 2600 лидеров технологической отрасли, в том числе Илон Маск, генеральный директор Tesla, и Стив Возняк, соучредитель Apple, выступают за приостановку разработки искусственного интеллекта на полгода, чтобы оценить его значительные риски.
Как ответственный криптоинвестор, я ценю усилия компаний, которые ставят безопасность превыше всего в разработке возможностей искусственного интеллекта. Эта приверженность этическим соображениям при продвижении технологий искусственного интеллекта достойна восхищения и важна для будущего нашей отрасли.
Смотрите также
- Прогноз цены на Popcat: информация о криптовалюте POPCAT
- Прогноз цены на эфириум: информация о криптовалюте ETH
- Прогноз цены на JasmyCoin: информация о криптовалюте JASMY
- Прогноз цены на Optimism: информация о криптовалюте OP
- Прогноз цены на Arbitrum: информация о криптовалюте ARB
- Прогноз цены на биткоин: информация о криптовалюте BTC
- ConsenSys защищает MetaMask в судебном разбирательстве с SEC
- Стремитесь к развитию блокчейна посредством кампании по реактивной унификации сети
- Акции MicroStrategy выросли на 118% за шесть месяцев
- Прогноз цены на Aevo: информация о криптовалюте AEVO
2024-06-20 06:44