Wall Street Journal сообщила, что генеральный директор OpenAI Сэм Альтман хочет собрать до 7 триллионов долларов на "дико амбициозный" технологический проект по увеличению мощности чипов..
Wall Street Journal сообщила, что генеральный директор OpenAI Сэм Альтман хочет собрать до 7 триллионов долларов на "дико амбициозный" технологический проект по увеличению мощности чипов в мире, финансируемый инвесторами, включая ОАЭ, что, в свою очередь, значительно расширит возможности для питания моделей искусственного интеллекта.
Хотя это может быть просто мечтательным лунным планом Альтмана или генератором шумихи в духе Элона Маска, не вызывает сомнений влияние столь масштабных усилий на окружающую среду, считает Саша Луччиони, ведущий специалист по климату и исследователь Hugging Face."Если все получится, количество природных ресурсов, которые потребуются, просто поражает воображение", - сказала она в интервью VentureBeat. "Даже если энергия будет возобновляемой (а это не гарантировано), количество воды и редкоземельных минералов, которые потребуются, будет просто астрономическим".
Для сравнения: в сентябре 2023 года Fortune сообщила, что благодаря инструментам искусственного интеллекта потребление воды в Microsoft выросло на 34 %; модель Llama 2 компании Meta, как сообщается, потребляла в два раза больше воды, чем Llama 1; а исследование 2023 года показало, что тренировка GPT-3 компании OpenAI потребляла 700 000 литров воды.Но на самом деле желание Альтмана решить проблему нехватки GPU и изменить ландшафт полупроводниковой индустрии не является чем-то необычным. Прошлым летом издание VentureBeat сообщило о том, что доступ к труднодоступному, сверхдорогому, высокопроизводительному графическому процессору H100 от Nvidia для обучения больших языковых моделей (LLM) стал "главной сплетней" Кремниевой долины.
И только на прошлой неделе, когда компания Meta в своем последнем отчете о прибылях предложила глубокое погружение в свою стратегию ИИ, генеральный директор Марк Цукерберг заявил, что для создания ИИ "полноценного общего интеллекта" первым ключевым требованием является "вычислительная инфраструктура мирового класса". Далее Цукерберг повторил то, что недавно раскрыл в недавнем ролике в Instagram: к концу этого года у Meta будет около 350 тысяч H100 - с учетом других GPU общее количество вычислений составит около 600 тысяч эквивалентов H100.Компания планирует и дальше активно инвестировать в эту область, пояснил он: "Чтобы создавать самые передовые кластеры, мы также проектируем новые центры обработки данных и разрабатываем собственный кремний, специализированный для наших рабочих нагрузок".
0 комментариев