Как опытный криптоинвестор и энтузиаст технологий с более чем двадцатилетним опытом работы в отрасли, я с трепетом и растущим беспокойством наблюдаю за быстрым развитием технологий искусственного интеллекта (ИИ). Недавние события вокруг OpenAI усилили мои опасения по поводу потенциальных рисков, связанных с этой революционной технологией.
Коалиция демократов в Сенате и независимый сенатор написали официальное письмо генеральному директору OpenAI Сэму Альтману, в котором выразили опасения по поводу протоколов безопасности компании.
Газета Washington Post была первоначальным источником, который привлек внимание к этому письму, изложив его содержание, в котором основное внимание уделяется 12 основным проблемам, связанным с OpenAI.
В первоначальном запросе письма содержится вопрос относительно разрешения OpenAI властям США изучить и оценить будущую основную модель ИИ до ее публичного обнародования. Более того, законодатели предлагают OpenAI выделить 20% своих вычислительных ресурсов на исследования безопасности. Кроме того, они предлагают принять меры по предотвращению потенциальных угроз со стороны злоумышленников или враждебных стран, пытающихся незаконно присвоить передовую технологию искусственного интеллекта OpenAI. Эти требования подчеркивают растущие опасения, связанные с потенциальными опасностями, создаваемыми сложными системами искусственного интеллекта.
После утверждений из конфиденциальных источников, это усиленное рассмотрение связано с обвинениями в поспешных оценках безопасности GPT-4 Omni с целью ускорить его запуск. Кроме того, поступали утверждения о том, что сотрудники, высказывавшие опасения по поводу безопасности, подвергались преследованию и были вынуждены подписать подозрительные контракты о неразглашении информации.
В июне 2024 года в Комиссию по ценным бумагам и биржам США была подана жалоба по этим вопросам.
Совсем недавно Microsoft и Apple решили присоединиться к совету директоров OpenAI, решение было принято в июле после обвинений информаторов. Этот шаг произошел на фоне повышенного контроля и внимания регулирующих органов к управлению ИИ. В прошлом году (2023) Microsoft инвестировала в OpenAI значительную сумму в 13 миллиардов долларов.
Более того, Уильям Сондерс, предыдущий член команды OpenAI, выразил опасения, аналогичные нашим. Проще говоря, он поделился причинами ухода из OpenAI, выразив опасения, что их работа потенциально может представлять серьезную опасность для человечества. Он провел аналогию между нынешней ситуацией и печально известной катастрофой Титаника.
Сондерс выражает обеспокоенность не только по поводу нынешних возможностей ChatGPT, но и по поводу передовых систем искусственного интеллекта, которые могут превзойти человеческий интеллект в будущем. Он выступает за этическую ответственность среди разработчиков и работников ИИ, призывая их повышать осведомленность широкой общественности о потенциальных рисках, связанных с такими технологическими достижениями.
Смотрите также
2024-07-24 07:00