Перейти к содержанию

Файл:On the Dangers of Stochastic Parrots Can Language Models Be Too Big.pdf

Содержимое страницы недоступно на других языках.
Материал из Wikivoyage
Перейти на страницу
следующая страница →
следующая страница →
следующая страница →

Исходный файл(1275 × 1650 пкс. Размер файла: 297 КБ, MIME-тип: application/pdf. 14 страниц)

Этот файл из на Викискладе и может использоваться в других проектах. Информация с его страницы описания приведена ниже.

Краткое описание

Описание
English: The past 3 years of work in NLP have been characterized by the development and deployment of ever larger language models, especially for English. BERT, its variants, GPT-2/3, and others, most recently Switch-C, have pushed the boundaries of the possible both through architectural innovations and through sheer size. Using these pretrained models and the methodology of fine-tuning them for specific tasks, researchers have extended the state of the art on a wide array of tasks as measured by leaderboards on specific benchmarks for English. In this paper, we take a step back and ask: How big is too big? What are the possible risks associated with this technology and what paths are available for mitigating those risks? We provide recommendations including weighing the environmental and financial costs first, investing resources into curating and carefully documenting datasets rather than ingesting everything on the web, carrying out pre-development exercises evaluating how the planned approach fits into research and development goals and supports stakeholder values, and encouraging research directions beyond ever larger language models.
Дата
Источник

https://dl.acm.org/doi/abs/10.1145/3442188.3445922

https://doi.org/10.1145/3442188
Автор Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell

Лицензирование

w:ru:Creative Commons
атрибуция
Этот файл доступен по лицензии Creative Commons Attribution 4.0 International
Вы можете свободно:
  • делиться произведением – копировать, распространять и передавать данное произведение
  • создавать производные – переделывать данное произведение
При соблюдении следующих условий:
  • атрибуция – Вы должны указать авторство, предоставить ссылку на лицензию и указать, внёс ли автор какие-либо изменения. Это можно сделать любым разумным способом, но не создавая впечатление, что лицензиат поддерживает вас или использование вами данного произведения.

Краткие подписи

Добавьте однострочное описание того, что собой представляет этот файл
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜

Элементы, изображённые на этом файле

изображённый объект

application/pdf

История файла

Нажмите на дату/время, чтобы увидеть версию файла от того времени.

Дата/времяМиниатюраРазмерыУчастникПримечание
текущий15:41, 1 марта 2023Миниатюра для версии от 15:41, 1 марта 20231275 × 1650, 14 страниц (297 КБ)PamputtUploaded a work by Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell from https://dl.acm.org/doi/abs/10.1145/3442188.3445922 https://doi.org/10.1145/3442188 with UploadWizard

Нет страниц, использующих этот файл.

Глобальное использование файла

Данный файл используется в следующих вики:

  • Использование в www.wikidata.org

Метаданные