Когда одна н и когда две нн: Правописание Н и НН в разных частях речи

Содержание

Правописание -Н- и -НН- в различных частях речи | ЕГЭ по русскому языку

Правописание Н и НН в существительных
НН пишется:

1) если корень слова оканчивается на н, а суффикс начинается с н:
Например: конница, бесприданница, малинник

2) если существительное образовано от прилагательного или от причастия, имеющего нн:
Например: современник, торжественность
Н пишется:

Если существительное образовано от основы прилагательного с одним н

Например: песчаник, пряности, юность
Правописание Н и НН в суффиксах отыменных прилагательных (образованных от имени существительного)
НН пишется:

1) в прилагательных, образованных от имен существительных и прилагательных с помощью суффиксов -енн-, -онн-.
Например: революционный, временный, здоровенный

Исключение: ветреный
2) в прилагательных, образованных от существительных с основой на при помощи суффикса -н-.
Например: длинный, туманный, чугунный
Прилагательные бараний, тюлений, свиной и подобные пишутся с одной н, так как они образованы от существительных с основой на н путем прибавления суффикса-j-.
Прилагательные пряный, румяный, юный пишутся с одной н, так как это непроизводные прилагательные.
Н пишется:

Н пишется в прилагательных, образованных от существительных с помощью суффиксов -ин-, -ан-,-ян-.
Например: мышиный, гусиный, водяной

Исключения: стеклянный, оловянный, деревянный

Правописание Н и НН в отглагольных прилагательных и причастиях
НН пишется:

1) полные страдательные причастия прошедшего времени.
Например: закрученный, откопанный, купленный

2) в прилагательных на -ованный, -ёванный, -еванный.
Например: маринованный, корчёванный, асфальтированный
Н пишется:

1) в отглагольных прилагательных
Например: беленые стены, груженый вагон

2) в кратких причастиях
Например: сделан, освоены, окрашено
конченый человек, названый брат, названая сестра, посажёный отец, посажёная мать, Прощёное воскресенье, гладкокрашеный, домотканый, мелкодроблёный, самозваный, тяжелораненый, цельнокроеный, латаный-перелатаный, стираный-перестираный, чиненый-перечиненый, читаный-перечитаный, штопаный-перештопаный, желанный, жданный, надёванный, неведанный, невиданный, негаданный, нежеланный, нежданный, ненадёванный, неожиданный, неслыханный, нечаянный, долгожданный, доморощенный.
Правописание Н и НН в наречиях
В наречиях пишется столько н, сколько их пишется в слове, от которого наречие образовано.
Например: нечаянно (нечаянный), путано (путаный), ветрено (ветреный)

Н и НН в прилагательных

В при­ла­га­тель­ных пишет­ся как одна бук­ва -Н-, так и -НН-. Правильный выбор сде­ла­ем, опре­де­лив, от сло­ва какой части речи и с помо­щью каких суф­фик­сов обра­зу­ют­ся прилагательные.

Для того что­бы выбрать одну и две бук­вы -Н- в напи­са­нии имен при­ла­га­тель­ных, опре­де­лим, с помо­щью каких суф­фик­сов они обра­зо­ва­ны от суще­стви­тель­ных или гла­го­лов несо­вер­шен­но­го и совер­шен­но­го вида.

Написание -Н- и -НН- в прилагательных, образованных от существительных

Если при­ла­га­тель­ное обра­зо­ва­но от суще­стви­тель­но­го с помо­щью суф­фик­сов -ан-, -ян-, -ин-, то эти суф­фик­сы пишут­ся с одной бук­вой -Н-, напри­мер:

  • песок — песчаный пляж;
  • рожь — ржаной хлеб;
  • бере­ста — берестяное лукош­ко;
  • сереб­ро — серебряный кре­стик;
  • осёл — ослиный крик;
  • соло­вей — соловьиное пение.

Обратим вни­ма­ние, что корен­ное «н» пишет­ся в прилагательных:

Запомним напи­са­ние слов-исключений:

  • оло­во — оловянный
  • дере­во — деревянный
  • стек­ло — стеклянный

Прилагательные обра­зу­ют­ся от суще­стви­тель­ных с помо­щью суф­фик­сов -онн- и -енн-, напри­мер:

  • лек­ция — лек­ционный курс;
  • стан­ция — стан­ционное зда­ние;
  • клят­ва — клятвенное обе­ща­ние;
  • брит­ва — бритвенный при­бор.

Качественные при­ла­га­тель­ные с суф­фик­сом -енн- могут выра­жать боль­шую меру признака:

  • толстенный фоли­ант
  • тяжеленный мешок
  • широченный пояс
  • высоченный бас­кет­бо­лист
  • здо­ровенный муж­чи­на.

Исключение состав­ля­ет сло­во «вет­реный» (день, чело­век, при­я­тель). Однако при­ста­воч­ные обра­зо­ва­ния это­го при­ла­га­тель­но­го пишут­ся с -НН-:

  • безвет­рен­ный
  • подвет­рен­ный
  • навет­рен­ный
  • обвет­рен­ный
  • провет­рен­ный
  • завет­рен­ный.

С -НН- пишут­ся при­ла­га­тель­ные, если суф­фикс -н- при­со­еди­ня­ет­ся к осно­ве суще­стви­тель­но­го, закан­чи­ва­ю­щей­ся тоже на «н»:

  • осень — осенний день;
  • длина — длинные тени;
  • бал­кон — бал­конные пери­ла;
  • цена — ценный камень;
  • кухня — кухонный ком­байн.

В при­ла­га­тель­ных, кото­рые обра­зо­ва­ны от суще­стви­тель­ных на -мя, напи­шем -НН-, так как они обра­зо­ва­ны от осно­вы кос­вен­ных паде­жей этих суще­стви­тель­ных, окан­чи­ва­ю­щей­ся на «н», напри­мер:

  • вре­мя — нет вре­мени — времен-н-ой;
  • темя — вид темени — темен-н-ой;
  • имя — зову по имени — имен-н-ой;
  • семя — мно­го семени — семен-н-ой.

Написание -Н- и -НН- в прилагательных, образованных от глаголов

Чтобы выбрать напи­са­ние -Н- или -НН- в при­ла­га­тель­ных, обра­зо­ван­ных от гла­го­лов, опре­де­ля­ем вид гла­го­ла. Если про­из­во­дя­щим явля­ет­ся бес­при­ста­воч­ный гла­гол несо­вер­шен­но­го вида (что делать?), то отгла­голь­ное при­ла­га­тель­ное пишет­ся с -Н-, напри­мер:

  • гру­зить — гру­жё­ный вагон;
  • сеять — сея­ная мука;
  • пле­сти — пле­тё­ная корзина,
  • метить — мече­ный атом;
  • точить — точё­ная ложка.

Наличие при­став­ки не- и полу- не меня­ет напи­са­ния прилагательного:

  • носить — ношеный — неношеный костюм,
  • ранить — раненый — нераненый сол­дат,
  • гру­зить — гру­жёный — полугру­жёный само­свал.

У таких слов в пред­ло­же­нии не долж­но быть зави­си­мых слов.

Дополнительный мате­ри­ал

Поинтересуемся, как отли­чить отгла­голь­ное при­ла­га­тель­ное от при­ча­стия.

Сравним:

Плетёная кор­зи­на пол­на румя­ных яблок.

Плетённые дедуш­кой кор­зин­ки были нарас­хват на базаре.

Если же про­из­во­дя­щим явля­ет­ся гла­гол совер­шен­но­го вида (что сде­лать?) с при­став­кой, то при­ла­га­тель­ное име­ет в напи­са­нии -НН-, напри­мер:

  • рас­те­рян­ное лицо
  • оби­жен­ный вид
  • уме­рен­ный климат
  • уси­лен­ное питание
  • уве­рен­ный тон
  • отча­ян­ный крик
  • воз­вы­шен­ный стиль.

В при­ла­га­тель­ных, име­ю­щих в мор­фем­ном соста­ве суф­фик­сы -ова-/ева-, -ирова-, пишет­ся -НН-:

  • прессовать — прессованный;
  • взволновать — взволнованный;
  • рисковать — рискованный;
  • очаровать — очарованный;
  • никелиро­вать — никелиро­ванный;
  • натрениро­вать — натрениро­ванный;
  • иллюстриро­вать — иллюстриро­ванный.

Обратим вни­ма­ние на напи­са­ние бес­при­ста­воч­ных гла­го­лов «кованый», «жёваный», «клё­ваный».

Правописание -Н- и -НН- в кратких формах прилагательных

Краткие фор­мы при­ла­га­тель­ных сохра­ня­ют напи­са­ние -Н- или -НН-, кото­рое суще­ству­ет в их пол­ных формах.

Сегодня пого­да очень ветрена.

Его лицо оби­жен­но и растерянно.

Девушка так­тич­на и воспитанна.

Алгоритм определения написания -Н- или -НН- в прилагательных

Чтобы пра­виль­но напи­сать при­ла­га­тель­ное с -Н- или -НН-, выяс­ним сна­ча­ла его фор­му, пол­ную или крат­кую. Затем опре­де­лим, от суще­стви­тель­но­го или гла­го­ла обра­зо­ва­но рас­смат­ри­ва­е­мое сло­во.  Если про­из­во­дя­щим явля­ет­ся суще­стви­тель­ное, обра­ща­ем вни­ма­ние на его осно­ву и суф­фикс, с помо­щью кото­ро­го обра­зо­ва­но прилагательное.

Если при­ла­га­тель­ное явля­ет­ся отгла­голь­ным, выяс­ня­ем вид гла­го­ла, обра­тив вни­ма­ние, есть ли при­став­ка в его мор­фем­ном соста­ве, а так­же учи­ты­ва­ем сло­во­об­ра­зо­ва­тель­ные суффиксы.

Схематично алго­ритм опре­де­ле­ния напи­са­ния -Н- или -НН- в име­нах при­ла­га­тель­ных и при­ча­сти­ях выгля­дит так:

Определим, в какой фор­ме сто­ит прилагательное:
пол­ной крат­кой
Две бук­вы в окон­ча­нии (кра­си­вая) Одна бук­ва в окон­ча­нии (кра­си­ва, кра­сив)
Выясним, от какой части речи обра­зо­ва­но сло­во: от суще­стви­тель­но­го или от гла­го­ла.
Полная фор­ма
Прилагательные от существительных Прилагательные от гла­го­лов ( причастия)
-Н- -НН- -Н- -НН-
-ан, -ян, -ин

лев — львиный
соль — соляной
кожа — кожаный

! Стеклянный
оловянный
деревянный

-онн, -енн

рево­лю­ция — революционный
листва — лиственный

! Ветреный
Но — без­вет­рен­ный

без при­став­ки

моро­же­ный сом (от моро­зить)

с при­став­кой

замо­ро­жен­ный сом

Н+Н = сон+ный

НО!
юный, румя­ный,
сви­ной, пряный,
пья­ный, поганый,
зелё­ный, синий.

К пер­во­об­раз­ным так­же отно­сят­ся слова:
еди­ный, фазаний,
воро­ний, бараний,
саза­ний, тюлений,
пав­ли­ний, багряный,
рья­ный, буланый.

не, полу… не считать!

немо­ро­же­ный
полумороженый

зави­си­мое слово

моро­жен­ный мамой сом

МЯ = енн

вре­мен­ный (вре­мя)

суф. -ова-, -ева-, -ирова-

мари­но­ван­ный
асфальтированный

! кова­ный, жёва­ный, клёваный

! желан­ный, неча­ян­ный, неждан­ный, негаданный

Краткая фор­ма
Значение дей­ствия (что сде­ла­ны?) — «Н»
вос­пи­та­ны отцом, взвол­но­ва­ны бурей
Значение при­зна­ка (како­вы?) — см. на пол­ную фор­му: сколь­ко «н» в пол­ной, столь­ко и в краткой.
Они вос­пи­тан­ны и обра­зо­ван­ны (вос­пи­тан­ные и образованные).

Видеоурок

Скачать ста­тью: PDF

Правописание Н и НН в суффиксах | LAMPA

Отглагольные прилагательные и причастия в полной форме

Существует три условия, при выполнении любого из которых в полном страдательном причастии прошедшего времени или прилагательном пишется нн.

1. Причастие (или прилагательное) образовано от глагола с приставкой (кроме приставки не-, которая не влияет на количество н в слове).

испуганный, нагруженный, испечённый

Но: непуганый, незваный

Исключения: назвАный (брат; с ударением на втором слоге), посажёный (отец; заменяющий родителя жениха или невесты на свадьбе), приданое (это существительное, образованное путем перехода прилагательного в разряд существительных), смышлёный.

Важно: не меняется написание отглагольных прилагательных в составе сложных слов.

Сравните:
свежемороженый (без приставки, поэтому пишется одна н) — свежезамороженный (с приставкой, поэтому пишется нн)
гладкокрашеный (без приставки, поэтому пишется одна н) — гладкоокрашенный (с приставкой, поэтому пишется нн)

2. У причастия есть зависимые слова (кроме слов, означающих степень проявления признака: очень, весьма и т.д.).

гружённый песком вагон, печённое в духовке яблоко

3. Причастие (или прилагательное) образовано от глагола совершенного вида.

брошенный (бросить), данный (дать), купленный (купить), лишенный (лишить), решенный (решить)

Эти три условия не охватывают причастия и прилагательные без зависимых слов, образованные от глаголов несовершенного вида без приставок. Здесь действуют два правила, из которых есть много исключений.

Пишется н Пишется нн

Правило 1. Если причастие (или отглагольное прилагательное) заканчивается на —ованный, —ёванный, пишется нн.

Примеры: балованный, линованный, корчёванный

Но: это правило не действует, если —ов-, —ев— входят в состав корня (в словах жёваный, кованый, клёваный).



Правило 2. Если прилательное образовано с помощью суффиксов —ен-, —н— от глагола несовершенного вида без приставки, при отсутствии зависимых слов пишется н.

Примеры: гружёный, кошеный, топлёный, печёный, мороженый, рваный, путаный, краденый

Но: В некоторых прилагательных, образованных от бесприставочных глаголов несовершенного вида, пишется нн.

Примеры: желанный, действенный


В некоторых причастиях, образованных от глагола несовершенного вида без приставок, даже при отсутствии зависимых слов пишется нн.
Это причастия виданный, писанный, рисованный, виденный, слыханный.

Правописание н и нн в глаголах

Пишутся с нн суффиксы полных форм страдательных причастий прошедшего времени: -нн-  и -ённ-  (-енн-). Соотносительные с ними по форме прилагательные пишутся в одних случаях тоже с нн   в суффиксе, в других – с одним н.

1. Пишутся с нн   причастия и прилагательные на -ованный, -ёванный, -еванный  (образованные от глаголов на -овать, -евать ), например: балованный, корчёванный, линованный, малёванный, организованный; выкорчеванный, избалованный, намалёванный, разлинованный, реорганизованный.

2. Пишутся также с нн   причастия не на -ованный  (-ёванный, – еванный ) глаголов совершенного вида  и соотносительные с ними прилагательные; подавляющее большинство таких глаголов содержит приставку.

  • Примеры форм, образованных от приставочных глаголов: выбеленный, выстиранный, довязанный, изжаренный, исписанный, окрашенный, очищенный, обруганный, покрашенный, подсчитанный, распутанный, сделанный.
  • Перечень форм исконно бесприставочных глаголов, а также некоторых глаголов, приставка в которых может быть выделена только этимологически: брошенный, данный, конченный, купленный, лишённый, пленённый, прощённый, пущенный, решённый, хваченный, явленный; встреченный, затеянный, обиженный, обретённый, обязанный, посещённый, снабжённый.

По этому правилу пишутся и формы двувидовых  (имеющих значение и совершенного, и несовершенного вида) глаголов венчать, завещать, обещать, казнить, родить: венчанный, завещанный, обещанный, казнённый, рождённый.

Исключения. Пишутся с одним н   соотносительные с причастными формами прилагательные в составе следующих устойчивых сочетаний: конченый человек, названый брат, названая сестра, посажёный отец, посажёная мать, Прощёное воскресенье .

3. Причастия не на -ованный  (-ёванный, -еванный ) глаголов несовершенного вида  (они образуются только от бесприставочных глаголов) и соотносительные с ними прилагательные пишутся по-разному: причастия с нн, прилагательные – с одним н, например: гружённые дровами повозки, жаренная на масле рыба, писанная маслом картина, стриженные парикмахером волосы  и коротко стриженные волосы, крашенные зелёной краской скамейки, давно не метённый пол, ещё не белённые стены, уже не раз считанные деньги, деланное много раз предложение ; но: гружёная баржа, жареная рыба, писаная красавица, стриженые волосы, крашеные скамейки, метёный пол, белёные стены, считаные минуты, деланое равнодушие ; аналогично вязанный  и вязаный, глаженный  и глаженый, плетённый  и плетёный, чищенный  и чищеный ; так же пишутся: жёванный  и жёваный, клёванный  и клёваный, кованный  и кованый.

По этому правилу пишутся формы двувидовых глаголов контузить, крестить  и ранить . Ср.: контуженный в голову боец, тяжело раненный солдат, раненный в ногу солдат, только что крещённый младенец , но: контуженый командир, раненый солдат, крещёный ребёнок.

Правописание н и нн в причастиях, правила и примеры

1. В полных формах страдательных причастий прошедшего времени, образованных от совершенного вида (как приставочных, так и бесприставочных) пишется нн, например: купленный, исправленный, названный, спаренный, срезанный, решённый, высушенный, брошенный, пленённый, данный, заставленный, наказанный, проработанный, встроенный и др.

Исключения: с одним н пишутся полностью утратившие связь с причастиями отглагольные (образованные от совершенного вида) прилагательные, входящие в состав устойчивых сочетаний, например: конченый человек, прощёное воскресенье, названый брат, посажёный отец.

Примечание 1. Вышеприведенные страдательные причастия могут употребляться и в значении прилагательного, но это не влияет на их написание, например: выдержанный человек (с выдержкой), данный случай (именно этот), заинтересованный разговор (представляющий интерес), изможденный старик (очень уставший).

2. В отглагольных прилагательных, образованных от бесприставочных глаголов несовершенного вида, пишется одно н, например: правленый, вяленый, жареный, варёный, мочёный, кипячёный, глаженый, кованый, кошеный, стриженый, стираный, ломаный, мощёный, плетёный, гружёный, плавленый, мороженый, а также раненый (хотя образовано от двувидового глагола ранить). С одним н пишется прилагательное смышленый.

Исключения: С двумя н пишутся отглагольные прилагательные, образованные от бесприставочных глаголов несовершенного вида: виданный, виденный, деланный, желанный, слыханный, считанный, нежданный-негаданный.

Примечание 1. Вышеприведенные отглагольные прилагательные при наличии зависимых слов переходят в разряд причастий и пишутся с двумя н, например: мощенные булыжником улицы, груженные лесом вагоны, раненный в ногу боец, стриженный парикмахером мальчик.

Примечание 2. С двумя н пишутся отглагольные прилагательные, образованные от бесприставочных глаголов несовершенного вида с суффиксами -ован (-ёван), например: балованный, рискованный, корчёванный, линованный. В отглагольных прилагательных кованый, жёваный сочетания ов (ев) входят в состав корня, а не суффикса.

3. Не влияет на написание страдательных причастий и отглагольных прилагательных наличие частицы не-, например: нерешенные проблемы, незаинтересованные лица, неизведанный край; нехоженые тропы, некрашеная стена, непрошеный гость, некошеный луг.

4. Разграничение страдательных причастий и образованных от них прилагательных (тем самым выяснение вопроса о написании нн–н) иногда производится не по формальному признаку, а по смысловому. Например, в предложении Будучи раненным, солдат оставался в строю слово раненный – причастие и пишется с двумя н, несмотря на отсутствие при нем приставки и пояснительных слов: оно сохраняет глагольное значение.

Примечание 1. В сочетаниях глаженые-переглаженые брюки, латаная-перелатаная шуба, ношеный-переношеный костюм, стираное-перестираное белье, читаная-перечитаная книга, штопаные-перештопаные чулки и т.п оба слова в целях единообразия следует писать с одним н. Кроме того, вторая часть сложных образований, несмотря на то, что образована от глаголов совершенного вида, подчиняется слову в целом, имеющему значение прилагательного.

Примечание 2. Не меняется написание отглагольных прилагательных также в составе сложных слов, например: гладкокрашеный, цельнокроеный, домотканый, златокованый, малоезженый, малохоженый, малоношеный, малосоленый, мелкодробленый, свежегашеный, свежемороженый и др. (ср. с подобными прилагательными, в которых вторая часть сложного слова образована от приставочного глагола: гладкоокрашенный, малонаезженный, свежезамороженный и др.).

5. В существительных, образованных от страдательных причастий и отглагольных прилагательных, пишется два н или одно н в соответствии с производящей основой, например:

  • 1) бесприданница, воспитанник, данник, избранник, священник, ставленник, утопленник;
  • 2) вареник, копчености, мороженое, мученик, труженик, ученик.

6. В наречиях, образованных от отглагольных прилагательных, пишется столько н, сколько в полных формах прилагательных, например: деланно улыбаться, нежданно-негаданно явиться, путано объяснять.

7. В кратких формах страдательных причастий, в отличие от полных всегда пишется одно н, в кратких формах отглагольных прилагательных пишется столько н, сколько в полных формах. Ср.:

Демократическая общественность взволнована (причастие: ее взволновали) сообщениями о межнациональных столкновениях. – Игра актера была проникновенна и взволнованна (прилагательное: полна волнения).

Многие из них были приближены ко двору и возвышены (причастие: их возвысили). – Их идеалы и стремления были возвышенны (прилагательное: благородны и глубоки).

Их дети воспитаны (причастие: их воспитали) в духе передовых идей. – Манеры этой девушки свидетельствуют о том, что она тактична и воспитанна (прилагательное: умеющая хорошо себя вести).

Иногда простые вопросы бывают искусственно запутаны (причастие: их запутали). – Сюжеты этих произведений сложны и запутанны (прилагательное: трудны для понимания).

Вам всегда везет, вы, по-видимому, избалованы (причастие: вас избаловали) судьбой. – При неправильном воспитании дети обычно капризны и избалованны (прилагательное: испорчены баловством, капризны, изнежены).

Эти выводы обоснованы (причастие: их обосновали) самой логикой исследования. – Предъявленные нам требования произвольны и необоснованны (прилагательное: неубедительны).

Масштабы работ были ограничены (причастие: их ограничили) отпущенными средствами. – Его возможности ограниченны (прилагательное: малы).

Врачи были озабочены (причастие: их озаботило) состоянием больного. – Шторм усиливался, и лица моряков были серьезны и озабоченны (прилагательное: беспокойны).

Суд не усмотрел в данном деле состава преступления, и обвиняемые были оправданы (причастие: их оправдали). – Чрезвычайные меры в этих условиях были необходимы и вполне оправданны (прилагательное: имеющие объяснение).

Все варианты дальнейшей игры шахматистом до конца продуманы (причастие: он их продумал). – Ответы экзаменующихся были содержательны и продуманны (прилагательное: разумны, обоснованны).

Примечание 1. Некоторые отглагольные прилагательные в составе сложных слов пишутся в полной форме с двумя н, а в краткой – с одним н, например: общепризнанное превосходство – превосходство общепризнано, свежезамороженные ягоды – ягоды свежезаморожены.

Примечание 2. В некоторых отглагольных прилагательных допускается двоякое написание в краткой форме в зависимости от значения и конструкции: при наличии зависимых слов пишется одно н, при отсутствии – два н, например: Сестра намерена вскоре уехать. — Его дерзость намеренна. Мы преданы Родине. — Старые друзья всегда преданны. Наши легкоатлеты уверены в победе. — Движения гимнастов легки и уверенны. Она не заинтересована в успехе этого начинания. — Лица слушателей заинтересованны.

Правописание Н и НН в именах существительных — Уроки Русского

В существительных пишется две буквы НН, если они образованы:

  • от основы, которая заканчивается на Н, при помощи суффикса, начинающегося на Н.
  • Или от прилагательных, которые пишутся с двумя буквами Н.

Например:

 

осинник ← осина,     сторонник ← сторона

Слова осинник и сторонник образованы от отснов осин и сторон, которые заканчиваются на букву “н” при помощи суффиксов, которые начинаются на букву “н”, поэтому в них пишется две буквы “н”.

современник ← современный, эрудированность ←эрудированный

Слова современник и эрудированность образованы от прилагательных современный и эрудированный , которые пишутся с двумя буквами н.

 

В остальных случаях в существительных пишется одна буква Н. Например:

Ветреник ←ветреный, пудреница ←пудра, гостиница ←гостиный

В слове ветреник пишется одна буква н, так как оно образовано от прилагательного ветреный, в котором пишется одна буква “н”. В слове пудреница пишется одна буква н, так как оно обрзовано от существительного пудра с основой, заканчивающейся не на букву “н”. В слове гостиница пишется одна буква “н”, так как оно обрзовано от прилагательного гостиный, в котором пишется одна буква н.

Следует запомнить слова, в которых пишется одна буква “н”: ~ приданое, суженый.

 

Повторим

В существительных пишется две буквы НН, если они образованы:

  • от основы, которая заканчивается на Н, при помощи суффикса, начинающегося на Н.
  • от прилагательных, которые пишутся с двумя буквами Н.

В остальных случаях в существительных пишется одна буква Н.

Следует запомнить слова с одной буквой “н”: приданое, суженый.

Правописание Н и НН в суффиксах

ПРАВОПИСАНИЕ СОГЛАСНЫХ

Правописание Н и НН в суффиксах существительных, прилагательных …

Правила и примеры правописания Н и НН в суффиксах

 

Существительные

Пишется Н

  1. В словах, образованных от существительных, если корень не оканчивается на И: торф — торфяник, гость — гостиная — гостиница.
  2. В словах, образованных от прилагательных с одним Н: учёный — ученик — ученица — учёность, мороженое — мороженица.

 

Пишется НН

  1. В словах на -ик, -ица, -ость, образованных от существительных, если корень (основа) оканчивается на И: конь — конник — конница, цена — ценность.
  2. В словах, образованных от прилагательных (причастий) с двумя Н: воспитанный — воспитанница — воспитанность.
Прилагательные, образованные от существительных

Пишется Н

  1. В прилагательных с суффиксами -ан-, -ян-, -ин-, -н-: кожаный, серебряный, глиняный, куриный, лебединый, шумный.
    Исключение: оловянный, стеклянный, деревянный.
  2. В словах на -ий: бараний, обезьяний.
  3. В кратких прилагательных, образованных от полных с одним Н: походка бесшумна (бес-шумный).

 

Пишется НН

  1. В прилагательных с суффиксами -они-, -ени-: революционный, клюквенный.
    Исключение: ветреный.
  2. В прилагательных с суффиксом -Н-, если корень оканчивается на Н: окно — оконный, сон — сонный.
  3. В кратких прилагательных, образованных от полных с двумя Н: даль туманна (туманный).
Отглагольные прилагательные и причастия

Пишется Н

  1. В полных прилагательных, если нет приставки (кроме не-), суффикса -ова- (-ева-) и пояснительных слов: крашеный пол, раненый боец.
    Исключения: медленный, желанный, священный, нечаянный, невиданный, неслыханный, нежданный, негаданный и др.
  2. В кратких страдательных причастиях: боец ранен, диктант написан.

 

Пишется НН

  1. При наличии приставки (кроме не-): накрашенная, пораненный, заплаканный, сломанный, упитанный.
    Исключение: смышлёный.
  2. При наличии пояснительных слов: крашенный ими пол, раненный пулей боец.
  3. В словах на -ованный (-ёванный): маринованный, арестованный.
    Исключения: жёваный, кованый.
Наречия

Пишется Н

Если в прилагательном, от которого образовано наречие, одна буква Н: интересно (интересный).

 

Пишется НН

Если в прилагательном, от которого образовано наречие, две буквы Н: мужественно (мужественный).

Внимание:
С двумя н пишутся причастия, образованные от глаголов совершенного вида (даже без приставки): купленный, решённый.

Внимание:
Прилагательные без приставки с одним н, образованные от глаголов, надо отличать от сходных с ними причастий с двумя н (причастия имеют при себе пояснительные слова): раненый боец (прилагательное), раненный пулей боец (причастие).

ЗАПОМНИТЕ!

Юный, свиной, пряный, румяный, зелёный, ветреный (но: безветренный).

В кратких именах прилагательных -Н- и -НН- пишутся в соответствии с полной формой: современная – современна, длинная – длинна, зелённая – зеленна.

 

Если заметили ошибку, выделите фрагмент текста и нажмите Ctrl+Enter

Рейтинг:

( 0 Рейтинг )

комбинаторика — комбинаторное доказательство $ n! = (п-1) [(п-1)! + (n-2)!] $

$ n! $ Равно количеству n буквенных слов (под словом я подразумеваю ряд различных $ A_i $, поставленных рядом), которые могут быть образованы из алфавитов из набора $ S = \ {A_1, A_2 , A_3, \ точки, A_n \} $.

Теперь возьмем набор $ S_1 = \ {A_3, A_4, A_5, \ dots, A_n \} $. Количество слов, которые могут быть образованы с помощью $ A_i \ in S_1 $, равно $ (n-2)! $.

Теперь возьмем любое слово (скажем, $ \ lambda $), состоящее из букв из $ S_1 $. Его можно преобразовать в слово с n буквами, состоящее из букв из $ S $, вставив $ A_1, A_2 $ между буквами (а также перед словом или после слова) слова $ \ lambda $.Поскольку есть $ (n-2) $ букв, значит, в слове есть $ (n-3) $ мест, и есть два места, а именно перед словом и после слова, куда можно вставить две буквы.

Случай 1: $ A_1, A_2 $ стоят рядом с $ A_1 $ перед $ A_2 $.

В этом случае as $ A_1, A_2 $ будут отображаться бок о бок с тем же порядком, поэтому нахождение количества возможных слов из заданного слова $ \ lambda $ равнозначно нахождению no. мест, где можно разместить $ A_1A_2 $. А как нет.мест составляет $ (n-1) $. Это означает, что слово с буквами $ (n-1) $ n может быть получено из каждого $ \ lambda $. Теперь у нас есть $ (n-2)! $ $ \ Lambda $ s. Это означает, что у нас будет $ (n-1) (n-2)! $ N слов с буквами, где $ A_1, A_2 $ находятся рядом с $ A_1 $ появляется перед $ A_2 $

случай 2: Либо $ A_1, A_2 $ бок о бок с $ A_2 $, стоящим перед $ A_1 $, либо они не бок о бок.

В этом случае мы сначала поместим $ A_2 $ в любое из $ n-1 $ мест. Затем мы снова поместим $ A_1 $ в любое из мест $ n-1 $.nn!} $ способы разбить людей на 2n $ на партнерство?

Чтобы понять, откуда взялся двойной факториал, представьте себе нумерацию людей от 1 $ до 2n $. Для партнера по 1 доллару возможны варианты от 2 до 1 доллара; эти двое сейчас вне пула. Наименьшее непарное число теперь равно 3 долларам или 2 долларам, в зависимости от того, является ли партнер по 1 доллару 2 долларами или нет; какой бы он ни был, назовите его $ m $. Теперь выберите партнера за $ m $; он не может быть партнером $ 1 $ или $ 1 $, и это не может быть $ m $, поэтому есть варианты $ 2n-3 $. Продолжайте в том же духе.После того, как вы сформировали $ k $ пар, пусть $ m $ будет наименьшим непарным числом, и найдите партнера для $ m $; это не может быть один из 2k $ людей, уже объединенных в пару, и это не может быть $ m $, поэтому у вас есть варианты $ 2n-2k-1 = 2n- (2k + 1) $. К тому времени, когда вы перейдете к последним двум людям, у вас будет только один выбор. Таким образом, общее количество способов сделать выбор составляет

.

$$ (2n-1) \ cdot (2n-3) \ cdot \ точки \ cdot3 \ cdot1 = (2n-1) !! \;. $$

А теперь давайте посмотрим на другое объяснение. Мы хотим увидеть, сколько из $ (2n)! $ Способов выстраивать людей и объединять в пары соседних людей приводят к одному и тому же набору из $ n $ пар.Допустим, мы нумеруем их от $ 1 $ до $ 2n $ слева направо, так что для $ k = 1, \ dots, n $ person $ 2k-1 $ попадает в пару с человеком $ 2k $:

.

$$ (p_1p_2) (p_3p_4) \ dots (p_ {2n-1} p_ {2n}) \;. \ Tag {1} $$

Мы можем перетасовать пары $ n $ в пары любым способом, и это не изменит партнерства: состав

$$ (p_3p_4) (p_1p_2) \ dots (p_ {2n-1} p_ {2n}) (p_7p_8) \ tag {2} $$

создает те же партнерские отношения, что и линейка в $ (1) $. Есть $ n! $ Способов перемешать пары, оставив их полностью неповрежденными, как в $ (2) $.Но это также не изменит партнерства, если мы поменяем местами некоторые пары:

$$ (p_4p_3) (p_1p_2) \ dots (p_ {2n} p_ {2n-1}) (p_7p_8) $$

имеет те же партнерские отношения, что и линейка в $ (2) $, хотя я поменял местами $ p_3 $ и $ p_4 $ в их паре, а также расположение $ p_ {2n-1} $ и $ p_ { 2n} $ в пределах их. nn! $ Различных составов, которые привести к такому же партнерству.п-п $. Первые несколько цифр:

n A n
1 1
2 2
3 5
4 12
5 27
6 58
7 121
8 248
9 503
10 1014

Первый вопрос, который можно задать себе, — как я могу перейти от $ A_n $ к $ A_ {n + 1} $, то есть, если мне дать $ A_n $, как я найду $ A_ {n + 1 } $ без необходимости вычислять $ 2 ^ nn $. {n + 1} — (n + 1) = A_ {n + 1 } $

Q.2 — (k + 1) — 4} {2} \ end {align *} $$

Q.E.D.

Таким образом, это доказано для всех натуральных чисел.

После нахождения этих основных и существенных формул, которые нужно найти для любого ряда чисел, мы можем перейти к интересной части.

Во-первых, обратите внимание, что разница между двумя последовательными членами ряда — это число Мерсенна:

$ A_ {n + 1} — A_n = M_n $

Где $ M_n $ означает n-е число Мерсенна.n-n $, которые я обнаружил на своем компьютере (некоторые не являются точными, но вероятными простыми числами, потому что мой компьютер был недостаточно силен, чтобы сделать конкретный вывод):

n 2 n -n Определенное / вероятное простое
2 2 Определенно
3 5 Определенно
9 503 Определенно
13 8179 Определенно
19 524269 Определенно
21 2097131 Определенно
55 36028797018963913 Определенно
261 2 261 -261 Вероятно
3415 2 3415 -3415 Вероятно
4185 2 4185 -4185 Вероятно
7353 2 7353 -7353 Вероятно
12213 2 12213 -12213 Вероятно
60975 2 60975 -60975 Вероятно
61011 2 61011 -61011 Вероятно

Вот несколько интересных теорем о простых числах этой формы:

Теорема 3

Для простых чисел $ 2 ^ n-n $, которые больше $ 2, n $ должно быть нечетным.n $ всегда четно, поэтому мы должны рассматривать только $ n $.

Если $ n $ чётно: чётный минус чётный.

Если $ n $ нечетное: четное минус нечетное — нечетное.

$ 2 $ — единственное четное простое число (если бы был другой, его можно было бы разделить на $ 2 $ и, следовательно, не простое число), поэтому для всех простых чисел этой формы $ n $ должно быть нечетным. , потому что мы хотим, чтобы $ A_n $ тоже было нечетным.n-n)} $$ можно увидеть, что гармонический ряд расходится и поэтому существует, вероятно, бесконечное количество простых чисел этой формы.

Конечно, можно узнать гораздо больше о таких числах, особенно об их простых числах, но, к сожалению, как и все хорошие вещи, эта статья должна заканчиваться. Я призываю читателя попытаться исследовать эти цифры.

Оценка внутренней размерности наборов данных по минимальной информации о соседстве

Пусть i будет точкой в ​​наборе данных, и рассмотрим список ее первых k ближайших соседей; пусть р
1 , р
2 ,…, r
к
— отсортированный список их расстояний от до . {- d} {\ mathrm {) 1}} _ { \ mathrm {[1,} + \ infty]} (\ mu \ mathrm {)}.$$

(6)

Функции f и F не зависят от локальной плотности, но явно зависят от внутренней размерности d .

Оценка двух ближайших соседей для внутренней размерности

Вывод, представленный выше, приводит к простому наблюдению: значение внутренней размерности d можно оценить с помощью следующего уравнения

$$ — \ frac {log \ mathrm { (1} -F (\ mu))} {журнал (\ mu)} = d.{2} \), \ (S \ doteq \ {(log (\ mu), — log \ mathrm {(1} -F (\ mu))) \} \), уравнение 7 утверждает, что теоретически S содержится в прямой \ (l \ doteq \ {(x, y) \, | \, y = d \ ast x \} \), проходящей через начало координат и имеющей наклон, равный d . На практике F ( μ ) оценивается эмпирически из конечного числа точек; как следствие, левый член в уравнении 7 будет отличаться для разных точек данных, и набор S будет лежать только около l .Эта линия рассуждений, естественно, предлагает алгоритм для оценки внутренней размерности набора данных:

  1. 1.

    Вычислить попарные расстояния для каждой точки в наборе данных i = 1,…, N .

  2. 2.

    Для каждой точки я нахожу два кратчайших расстояния r
    1 и r
    2 .

  3. 3.

    Для каждой точки я вычисляю \ ({\ mu} _ {i} = \ frac {{r} _ {2}} {{r} _ {1}} \).

  4. 4.

    Вычислить эмпирическую кумуляцию F
    emp ( μ ) путем сортировки значений μ в порядке возрастания через перестановку σ , затем определите \ ({F} ^ {emp} ({\ mu} _ {\ sigma ( i)}) \ doteq \ frac {i} {N} \).

  5. 5.

    Подобрать точки плоскости, заданные координатами {( log ( μ
    и
    ), — журнал (1- F
    emp ( мкм
    и
    ))) | i = 1,…, N } с прямой линией, проходящей через начало координат.

Даже если приведенные выше результаты получены в случае равномерного распределения точек в уравнениях (5) и (7), нет зависимости от плотности ρ ; как следствие, с точки зрения алгоритма мы можем апостериори ослабить нашу гипотезу: мы требуем, чтобы набор данных был только , локально, однородной плотности, где локально означает в диапазоне от второго соседа. С теоретической точки зрения это условие выполняется в пределе N , уходящем в бесконечность.Выполняя численные эксперименты с наборами данных, в которых плотность неоднородна, мы эмпирически показываем, что даже для конечного числа точек оценка достаточно нечувствительна к изменениям плотности. Требование локальной однородности только в диапазоне действия второго соседа является преимуществом по сравнению с конкурирующими подходами, когда требуется локальная однородность на больших расстояниях.

Benchmark

На рис.
emp ( мкм
и
)) как функция от log ( μ
и
) для трех образцов наборов данных, содержащих 2500 точек: набор данных, взятый из равномерного распределения на гиперкубе в размерности d = 14, проанализированный с периодическими граничными условиями (pbc), набор данных, полученный из равномерного распределения на швейцарском рулоне, встроенном в трехмерное пространство и набор данных Коши в d = 20.{2}} \). Гиперкуб с pbc — это PDF-файл, который лучше всего напоминает равномерное распределение в линейном пространстве; тем не менее, следует отметить, что pbc вносит корреляции в расстояниях, когда типичное расстояние второго соседа сравнимо с размером ящика. На том же рисунке мы проводим прямую линию, проходящую через начало координат и аппроксимирующую точки {( log ( μ
и
), — журнал (1- F
emp ( мкм
и
))) | i = 1,…, N }.Наклон этой прямой далее обозначается \ (\ hat {d} \). Согласно оценке TWO-NN, значение идентификатора для однородного гиперкуба равно \ (\ hat {d} = 14.09 \), что согласуется с основными истинными значениями. Для швейцарского рулета ID, оцененный TWO-NN, составляет 2,01. Это значение соответствует размеру гиперплоскости, касательной к швейцарскому рулону: фактически, используя только первых двух соседей каждой точки, оценка TWO-NN чувствительна к локальному размеру, даже если точек относительно мало и они встроены в изогнутой гиперповерхности.Для набора данных Коши мы получаем \ (\ hat {d} = 6,05 \), значение, значительно отличающееся от правильного. Действительно, на наклон аппроксимирующей линии сильно влияют несколько точек, характеризующихся высоким значением мкм
и
. В распределениях с тяжелыми хвостами существует значительная вероятность наличия \ ({r} _ {2} \ gg {r} _ {1} \) и большого значения отношения \ (\ frac {{r} _ { 2}} {{r} _ {1}} \). Это делает посадку нестабильной.Чтобы справиться с этими ситуациями и сделать процедуру более надежной, мы исключаем из подгонки 10% точек, характеризующихся наивысшими значениями μ . Наклон линий, полученных таким образом, составляет 13,91, 2,01 и 22,16 для гиперкуба, швейцарского рулона и набора данных Коши соответственно. Примечательно, что значение наклона практически не изменилось для гиперкуба и швейцарского рулона, в то время как для набора данных Коши оно сильно различается; в этом случае, если отбросить последние точки, мера будет ближе к истине, подгонка будет более стабильной, а общая процедура более надежной.Поэтому с этого момента мы обсуждаем результаты, полученные при подгонке линии только к первым 90% точек. В SI мы более подробно обсуждаем эффекты отбрасывания различных фракций точек данных и показываем, что оценка измерения является устойчивой по отношению к этому порогу.

Рисунок 1

Функция подгонки l ( x ) в трех типовых наборах данных по 2500 точек. В первом столбце мы отображаем набор данных, а во втором — набор данных S (красные точки) вместе с отброшенными точками (серые точки) и функцией аппроксимации l ( x ).Панель A, A ’: куб в измерении 14 (на панели A представлены только первые 3 координаты), проанализированный с помощью pbc. Панель B, B ’: швейцарский рулет. Панель C, C ’: набор данных Коши в измерении 20 (представлены только первые 3 координаты).

Затем мы проверили асимптотическую сходимость \ (\ hat {d} \), когда количество точек стремится к бесконечности.

По мере того, как количество точек, выведенных из распределения вероятностей, увеличивается, расстояния до второго соседа становятся меньше, а влияние кривизны и вариаций плотности становится незначительным.Как следствие, гипотеза о локальной однородности в диапазоне второго соседа более обоснована, и распределение µ все лучше и лучше аппроксимирует pdf f ; кроме того, по мере того, как количество точек стремится к бесконечности, эмпирическая кумуляция F
emp почти наверняка сходится к правильному F . Следовательно, мы ожидаем, что оценки, полученные TWO-NN, приблизятся к правильному значению.На рис. 2 мы анализируем асимптотическое поведение меры, полученной на однородном гиперкубе с периодическими граничными условиями, гауссовым распределением, набором данных Коши и равномерным распределением на гиперсфере. Наборы данных Гаусса и Коши представляют собой интересные тестовые примеры, поскольку они показывают изменение плотности, в то время как гиперсфера — это случай равномерного распределения в искривленном пространстве. Во всех случаях расчетный размер приближается к реальному. Сходимость быстрее при меньших размерах: такое поведение ожидается, поскольку, если мы зафиксируем количество точек и размер области, среднее расстояние до второго соседа будет меньше в случае малых размеров, а гипотеза локальной однородности ближе чтобы быть довольным.Набор данных Коши характеризуется высокой дисперсией в случае нескольких точек из-за наличия выбросов в наборе S , даже когда отбрасываются 10% точек с более высоким μ . Мы провели дополнительные тесты, сравнив оценки TWO-NN с оценками, полученными с помощью DANCo 16 , одного из лучших современных методов согласно исх. 2 . Подробное описание результатов см. В SI.

Рисунок 2

Масштабирование предполагаемого идентификатора по количеству точек; для каждого распределения и для количества точек от 20 до 25000 мы собираем 200 экземпляров набора данных и усредняем полученные оценки для идентификатора.Испытание проводится в размерах 2, 5 и 10. Панель A: Гиперкуб с печатной платой. Панель B: гауссовское распределение. Панель C: набор данных Коши. Панель D: равномерное распределение на гиперсфере.

Danco работает немного лучше с наборами данных, для которых характерны четкие границы. Действительно, такие границы вносят серьезное нарушение в предположение о локальной однородности. В наборах данных Коши TWO-NN обеспечивает гораздо лучшие характеристики, особенно при больших размерностях.На гиперкубах без pbc и на гауссианах TWO-NN подвергается переоценке из-за наличия резких границ, в то время как по той же причине DANCo работает относительно хорошо; добавление платы позволяет TWO-NN правильно оценить размер. В случае наборов данных Коши TWO-NN немного переоценивает ID из-за наличия выбросов (в измерении 20 он дает оценку около 22), в то время как DANCo встречает значительные трудности (в измерении 20 дает оценку около 13).

Оценка внутренней размерности, зависящей от масштаба

Важной особенностью средства оценки TWO-NN является его локальность: он обеспечивает оценку идентификатора, учитывая только первого и второго соседа каждой точки.Это делает его подходящим для анализа того, как идентификатор изменяется в зависимости от масштаба, и определения таким образом количества «мягких» направлений. В качестве базового примера рассмотрим выборку собранных точек, образующих равномерное распределение на плоскости, возмущенной гауссовым шумом с дисперсией σ в большом количестве ортогональных направлений. Этот пример имитирует то, что наблюдается в образцах, извлеченных из прогона молекулярной динамики при конечной температуре, в котором большинство возможных направлений сильно не одобряются стерическими ограничениями.В этом примере, если интересующий масштаб намного больше, чем σ , скажем, 10 σ , соответствующий идентификатор равен 2.

Мы замечаем, что в этом примере понятие идентификатора хорошо определено, так это стабильность меры. Что касается изменений в интересующей шкале: ID будет 2 также в еще большем масштабе, скажем, 100 σ .

В оценках на основе ближайших соседей эталонная шкала — это размер соседства, участвующего в оценке; это зависит от плотности точек в выборке и не обязательно совпадает с интересующим масштабом.Возвращаясь к примеру с самолетом с шумом, чем больше точек данных используется для оценки, тем меньше становится среднее расстояние до второго соседа и тем больше ID. Эти наблюдения предполагают, что для проверки релевантности нашей меры мы можем изучить стабильность оценки по отношению к изменениям в размере окрестности, как в стандартном блочном анализе. В случае TWO-NN можно изменить размер окрестности, уменьшив количество точек в наборе данных: чем меньше N , тем больше среднее расстояние до второго соседа.На практике аналогично подходу, принятому в исх. 14 , анализ масштабирования размера в зависимости от количества точек может быть выполнен путем извлечения подвыборок из набора данных и отслеживания вариации оценки \ (\ hat {d} \) по отношению к количеству точек. N . Соответствующий ID набора данных может быть получен путем нахождения диапазона N , для которого \ (\ hat {d} (N) \) является постоянным, и, таким образом, плато на графике \ (\ hat {d } (N) \). Значение d на плато — это количество «мягких» или релевантных направлений в наборе данных.

На рис. 3 мы анализируем размерность. На панели А мы изучаем случай однородной плоскости в размерности 2, возмущенной многомерным гауссовским шумом с дисперсией σ . Мы видим, что для σ = 0,0001 и σ = 0,0002 d ( N ) отображает плато около N = 1000, а значение измерения на плато равно 2, что равно количеству мягкие направления в наборе данных. По мере увеличения количества точек также отбираются измерения с шумом, и значение предполагаемого идентификатора увеличивается.Для критически низких значений N расчетный ID уменьшается до единицы, как и ожидалось (две точки всегда содержатся в строке). На панели B мы анализируем более сложный набор данных, состоящий из двумерного гауссовского изображения, обернутого вокруг швейцарского рулона и возмущенного многомерным гауссовским шумом с дисперсией σ . Также в этом случае мы находим плато, около 100 для σ = 0,0002 и около 500 для σ = 0,0001, при котором расчетный размер равен 2. Важно отметить, что даже если набор данных, проанализированный на панели B, является намного более сложный, чем простая плоскость на панели A, поведение размера в зависимости от количества точек по существу одинаково в двух случаях.

Рисунок 3

Расчетный размер d и количество точек N в логарифмической шкале; для каждого значения N набор данных разделен на несколько независимых наборов, содержащих ровно N точек, d вычисляется для каждого поднабора данных, и мера d ( N ) получается как среднее из этих значения. На панели А мы изучаем случай однородной плоскости из 50000 точек в размерности 2, возмущенной гауссовым шумом с дисперсией σ вдоль 20 независимых направлений; σ принимает три значения 0.0, 0,0001 и 0,0002. На панели B мы анализируем набор данных, состоящий из двумерного гауссова значения из 50000 точек, обернутых вокруг швейцарского рулона и возмущенного гауссовым шумом с дисперсией σ по 20 независимым направлениям. Снова σ принимает три значения: 0,0, 0,0001 и 0,0002.

Анализ наборов данных изображений

Оценка зависящего от масштаба внутреннего измерения очень полезна в случае реальных наборов данных. На рис. 4 мы вычисляем внутреннее измерение двух сложных наборов данных: базы данных лиц Isomap и рукописных цифр «2» из базы данных MNIST 9 .Первый набор данных состоит из 598 векторов с 4096 компонентами, представляющих значения яркости изображений лица размером 64 на 64 пикселя при различных направлениях освещения и позах. Второй составлен из 1032 векторов с 784 компонентами, представляющими рукописные цифры «2». Несмотря на относительно небольшое количество точек, блочный анализ может надежно определить внутреннее измерение двух наборов данных. В случае лиц Isomap мы видим плато для количества точек, превышающих примерно 400, а величина ID в диапазоне плато равна 3.5, немного выше, но соответствует 3, значение считается правильным. В случае набора данных MNIST плато расположено в диапазоне от 300 до 500 точек, а мера идентификатора, соответствующего плато, составляет 13,4, что согласуется с предыдущими оценками, которые утверждают, что идентификатор находится в диапазоне от 12 до 14 18,19 . В этом случае мера, которую мы получили бы для всего набора данных, будет завышать идентификатор из-за присутствия шума, подобно тому, что наблюдается в искусственных наборах данных на рис.3.

Рисунок 4

Масштабирование расчетного идентификатора относительно количества точек для лица ISOMAP (панель A) и базы данных MNIST (панель B).

Оценка ID динамики тринуклеотида AAA

Мы наконец оценили ID конфигурационного пространства, исследованного во время траектории молекулярной динамики тринуклеотида РНК AAA 17 . Динамика проводилась с помощью GROMACS 4.6.7 20 при температуре Т = 300 К.Молекулы РНК сольватировали в чистой воде. Исходя из исходной траектории 57 мс, мы сохраняем конфигурацию каждые 6 нс, получая общее количество 9512 структур. Изначально моделирование проводилось для понимания основных режимов релаксации короткой РНК. Вычисление идентификатора может обеспечить руководство для выполнения уменьшения размерности, таким образом сохраняя в описании значимое количество переменных. Мы проводим анализ идентификатора, используя два понятия расстояния; первый — это евклидово расстояние между координатами, связанными с каждой выборкой с помощью анализа независимых компонентов с запаздыванием по времени (TICA) 21 .Второй — это среднеквадратическое отклонение (RMSD) между всеми атомами в тринуклеотиде. Эти два расстояния по своей сути отличаются друг от друга, но поразительно, что измерение идентификатора, полученного в двух случаях, сравнимо, как показано на рис.5, со значениями примерно 9,5 и 8,5 для двух показателей (оцененных с использованием всех 9512 конфигураций). ). В рассмотренном нами диапазоне N оценка d медленно растет с трендом, аналогичным наблюдаемому на рис.2 об искусственных наборах данных. В принципе возможно дальнейшее уточнение процедуры, аппроксимируя эти кривые и находя асимптотическое значение d . Примечательно, что функции масштабирования d и N с двумя метриками сопоставимы, а значения идентификаторов в полных наборах данных различаются только для одной единицы в девятом измерении.

Рисунок 5

Масштабирование оцененного ID по отношению к количеству конфигураций для динамики тринуклеотидного AAA в случае расстояний RMSD (панель A) и расстояний TICA (панель B).Слева представлена ​​возможная конфигурация.

Среднее поле ландшафта двухуровневых нейронных сетей

Значимость

Многослойные нейронные сети оказались чрезвычайно успешными в различных задачах, от классификации изображений до робототехники. Однако причины этого практического успеха и точная область его применения неизвестны. Изучение нейронной сети на основе данных требует решения сложной задачи оптимизации с миллионами переменных.Это делается с помощью алгоритмов стохастического градиентного спуска (SGD). Мы исследуем случай двухуровневых сетей и получаем компактное описание динамики SGD в терминах предельного уравнения в частных производных. Среди прочего, это показывает, что динамика SGD не усложняется при увеличении размера сети.

Abstract

Многослойные нейронные сети являются одними из самых мощных моделей машинного обучения, однако фундаментальные причины этого успеха не поддаются математическому пониманию.Изучение нейронной сети требует оптимизации невыпуклой многомерной цели (функции риска) — проблема, которая обычно решается с помощью стохастического градиентного спуска (SGD). Приходит ли SGD к глобальному оптимуму риска или только к локальному оптимуму? В первом случае это происходит из-за отсутствия локальных минимумов или из-за того, что SGD каким-то образом их избегает? В последнем случае, почему локальные минимумы, достигаемые SGD, обладают хорошими обобщающими свойствами? В этой статье мы рассматриваем простой случай, а именно двухслойные нейронные сети, и доказываем, что — в подходящем пределе масштабирования — динамика SGD захватывается определенным нелинейным уравнением в частных производных (PDE), которое мы называем распределительной динамикой (DD).Затем мы рассмотрим несколько конкретных примеров и покажем, как DD можно использовать для доказательства сходимости SGD к сетям с почти идеальной ошибкой обобщения. Это описание позволяет «усреднить» некоторые сложности ландшафта нейронных сетей и может использоваться для доказательства общего результата сходимости для зашумленных SGD.

Многослойные нейронные сети — один из старейших подходов к статистическому машинному обучению, появившийся как минимум с 1960-х годов (1). За последние 10 лет, под влиянием увеличения мощности компьютеров и большей доступности данных, они превратились в мощный инструмент для решения широкого круга задач обучения (2, 3).

В этой статье мы сосредотачиваемся на классической установке контролируемого обучения, когда нам даются точки данных (xi, yi) ∈Rd × R, индексированные i∈N, которые считаются независимыми и одинаково распределенными из неизвестного распределение P на Rd × R. Здесь xi∈Rd — это вектор признаков (например, набор дескрипторов изображения), а yi∈R — метка (например, маркировка объекта на изображении). Наша цель — смоделировать зависимость метки yi от вектора признаков xi, чтобы присвоить метки ранее немаркированным примерам.В двухслойной нейронной сети эта зависимость моделируется как (x; θ) = 1N∑i = 1Nσ * (x; θi). [1] Здесь N — количество скрытых единиц (нейронов), σ *: Rd × RD → R — функция активации, а θi∈RD — параметры, которые мы вместе обозначаем θ = (θ1,…, θN). Коэффициент (1 / N) введен для удобства и может быть исключен путем переопределения активации. Часто θi = (ai, bi, wi) и σ * (x; θi) = ai σ (⟨wi, x⟩ + bi), [2] для некоторого σ: R → R. В идеале параметры θ = (θi) i≤N следует выбирать так, чтобы минимизировать риск (ошибку обобщения) RN (θ) = E {ℓ (y, ŷ (x; θ))}, где ℓ: R × R → R — некоторая функция потерь.Для простоты мы сосредоточимся на квадрате потерь ℓ (y, ŷ) = (y − ŷ) 2, но более общие варианты можно рассматривать в том же духе.

На практике параметры нейронных сетей изучаются методом стохастического градиентного спуска (SGD) (4) или его вариантами. В данном случае это составляет итерацию θik + 1 = θik + 2sk yk − ŷ (xk; θk) ∇θiσ * (xk; θik). [3] Здесь θk = (θik) i≤N обозначает параметры после k итераций, sk — размер шага, а (xk, yk) — k-й пример. На протяжении всей статьи мы делаем следующее «предположение за один проход»: примеры обучения никогда не возвращаются.Эквивалентно, {(xk, yk)} k≥1 независимы и одинаково распределены. (xk, yk) ∼P.

В крупномасштабных приложениях это недалеко от истины: данные настолько велики, что каждый пример посещается самое большее несколько раз (5). Кроме того, теоретические гарантии предполагают, что многократные проходы имеют ограниченное преимущество (6). Относительно недавних работ по выведению пределов масштабирования при таком предположении (в различных задачах) см. Исх. 7.

Понимание оптимизационного ландшафта двухуровневых нейронных сетей — в значительной степени открытая проблема, даже когда у нас есть доступ к бесконечному количеству примеров, то есть к популяционному риску RN (θ).Несколько исследований были сосредоточены на специальном выборе функции активации σ * и распределения данных P, доказывая, что популяционный риск не имеет плохих локальных минимумов (8⇓ – 10). Этот тип анализа требует тонких расчетов, которые несколько чувствительны к конкретному выбору модели. Другое направление работы предлагает новые алгоритмы с теоретическими гарантиями (11⇓⇓⇓⇓ – 16), в которых используются инициализации, основанные на тензорной факторизации.

В этой статье мы доказываем, что — в подходящем масштабном пределе — динамика SGD допускает асимптотическое описание в терминах определенного нелинейного уравнения в частных производных (PDE).Это УЧП имеет замечательную математическую структуру, поскольку соответствует градиентному потоку в метрическом пространстве (P (RD), W2): пространстве вероятностных мер на RD, наделенном метрикой Вассерштейна. Этот градиентный поток минимизирует асимптотическую версию популяционного риска, который определен для ρ∈P (RD) и будет обозначаться R (ρ). Это описание упрощает анализ ландшафта двухуровневых нейронных сетей, например, за счет использования основных симметрий. Мы проиллюстрируем это получением результатов на нескольких конкретных примерах, а также общим результатом сходимости для «зашумленных SGD.В следующем разделе мы даем неформальный план, сосредотачиваясь на базовой интуиции, а не на формальных результатах. Затем мы представляем последствия этих идей на нескольких конкретных примерах, а затем формулируем наши общие результаты.

Неофициальный обзор

Хорошей отправной точкой является переписывание популяционного риска RN (θ) = E {[y − ŷ (x; θ)] 2} как RN (θ) = R # + 2N∑i = 1NV ( θi) + 1N2∑i, j = 1NU (θi, θj), [4] где мы определили потенциалы V (θ) = — Ey σ * (x; θ), U (θ1, θ2) = Eσ * (x ; θ1) σ * (x; θ2). В частности, U (⋅, ⋅) — симметричное положительно полуопределенное ядро.(N) = N − 1∑i = 1Nδθi. Это предлагает рассмотреть функцию риска, определенную для ρ∈P (RD) [обозначим через P (Ω) пространство вероятностных распределений на Ω]: R (ρ) = R # + 2∫V (θ) ρ (dθ) + ∫U (θ1, θ2) ρ (dθ1) ρ (dθ2). [5] Формальные отношения могут быть установлены между RN (θ) и R (ρ). Например, при мягких предположениях infθRN (θ) = infρR (ρ) + O (1 / N). Мы ссылаемся на следующие разделы для математических утверждений этого типа.

Грубо говоря, R (ρ) соответствует популяционному риску, когда количество скрытых единиц стремится к бесконечности, а эмпирическое распределение параметров ρ ^ (N) сходится к ρ.Поскольку U (⋅, ⋅) положительно полуопределено, получаем, что в этом пределе риск становится выпуклым. На то, что обучение можно рассматривать как выпуклую оптимизацию в бесконечномерном пространстве, действительно указывалось в прошлом (17, 18). Означает ли это, что ландшафт популяционного риска упрощается для больших N и алгоритмы спуска сходятся к уникальному (или почти уникальному) глобальному оптимуму?

Ответ на последний вопрос обычно отрицательный, и аналогия с физикой может объяснить, почему.Думайте о θ1,…, θN как о положениях N частиц в D-мерном пространстве. Когда N велико, поведение такого «газа» частиц эффективно описывается плотностью ρt (θ) (с временем индексации t). Однако не все «небольшие» изменения этого профиля плотности могут быть реализованы в реальной физической динамике: динамика сохраняет массу локально, потому что частицы не могут двигаться прерывисто. Например, если supp (ρt) = S1∪S2 для двух непересекающихся компактов S1, S2⊆RD и всех t∈ [t1, t2], то общая масса в каждой из этих областей не может изменяться со временем, то есть ρt (S1) = 1 − ρt (S2) не зависит от t∈ [t1, t2].t / ε (N) ⇒ρt, [6] при N → ∞, ε → 0 (здесь ⇒ означает слабую сходимость). Асимптотическая динамика ρt определяется следующим PDE, который мы будем называть распределительной динамикой (DD): ∂tρt = 2ξ (t) ∇θ⋅ρt∇θΨ (θ; ρt), [7] и (θ; ρ) ≡V (θ) + ∫U (θ, θ ′) ρ (dθ ′). [8] [Здесь ∇θ⋅v (θ) обозначает дивергенцию векторного поля v (θ).] Это должно можно интерпретировать как уравнение эволюции в P (RD). Хотя мы описали сходимость к этой динамике в асимптотических терминах, результаты в следующих разделах дают явные неасимптотические оценки.k (N), k = t / ε, как только ε≪1 / D и N≫D.

Используя эти результаты, анализ обучения в двухуровневых нейронных сетях сводится к анализу PDE (уравнение 7 ). Хотя это далеко не простая задача, формулировка PDE приводит к нескольким упрощениям и пониманию. Во-первых, он учитывает неизменность риска (уравнение 4 ) (и динамики SGD; уравнение 3 ) по отношению к перестановкам единиц {1,…, N}.

Во-вторых, это позволяет нам использовать симметрии в распределении данных P.Если P остается инвариантным относительно группы преобразований (например, поворотов), мы можем искать решение ρt DD (уравнение 7 ), которое обладает такой же симметрией, что снижает размерность задачи. Это невозможно для динамики с конечным числом N (уравнение 3 ), поскольку никакое расположение точек {θ1,…, θN} ⊆RD не остается инвариантным, скажем, относительно вращений. Мы предоставим примеры этого подхода в следующих разделах.

В-третьих, существует богатая математическая литература по PDE (уравнение. 7 ), который был мотивирован изучением взаимодействующих систем частиц в математической физике. Как упоминалось выше, ключевой структурой, используемой в этом направлении работы, является то, что уравнение. 7 можно рассматривать как градиентный поток для функции стоимости R (ρ) в пространстве (P (RD), W2) вероятностных мер на RD с метрикой Вассерштейна (19⇓ – 21). Грубо говоря, это означает, что траектория t↦ρt пытается минимизировать риск R (ρ) при сохранении ограничения «локального сохранения массы».Напомним, что расстояние Вассерштейна определяется как W2 (ρ1, ρ2) = infγ∈C (ρ1, ρ2) ∫‖θ1 − θ2‖22γ (dθ1, dθ2) 1/2, [9] где нижняя грань берется по всем связям ρ1 и ρ2. Неформально, тот факт, что ρt — градиентный поток, означает, что уравнение. 7 для малых τ эквивалентно ρt + τ≈argminρ∈P (RD) R (ρ) + 12ξ (t) τW2 (ρ, ρt) 2. [10] Мощные инструменты из математической литературы по градиентным потокам в пространства мер (20) можно использовать для изучения поведения уравнения. 7 .

Самое главное, что предел масштабирования проясняет зависимость ландшафта двухуровневых нейронных сетей от количества скрытых единиц N.

Замечательной особенностью нейронных сетей является наблюдение, что, хотя они могут быть значительно завышены, это не приводит к снижению производительности. В случае ограниченных функций активации это явление было прояснено в 1990-х годах для эмпирических алгоритмов минимизации риска (см., Например, ссылку 22). Настоящая работа обеспечивает аналогичное понимание динамики SGD: грубо говоря, наши результаты предполагают, что ландшафт остается практически неизменным по мере роста N при условии N≫D.В частности, предположим, что PDE (уравнение 7 ) сходится близко к оптимальному за время t * (D). Это может зависеть от D, но не зависит от количества скрытых единиц N (которое не появляется в DD PDE; уравнение 7 ). Если t * (D) = OD (1), тогда мы можем взять N произвольно (до тех пор, пока N≫D) и достигнем популяционного риска, который не зависит от N (и соответствует оптимальному), используя k = t * / ε = O (D) отсчетов.

Наш анализ может включать некоторые важные варианты SGD, особенно интересным является шумный SGD: θik + 1 = (1−2λsk) θik + 2sk yk − ŷk ∇θiσ * (xk; θik) + 2sk / β gik, [ 11] где gik∼N (0, ID) и ŷk = ŷ (xk; θk).(Член −2λskθik соответствует регуляризации 2 и будет полезен для нашего анализа ниже.) Результирующий предел масштабирования отличается от уравнения. 7 путем добавления диффузионного члена: ∂tρt = 2ξ (t) ∇θ⋅ρt∇θΨλ (θ; ρt) + 2ξ (t) β − 1Δθρt, [12] где Ψλ (θ; ρ) = Ψ (θ; ρ) + (λ / 2) ‖θ‖22, а ∆θf (θ) = ∑i = 1d∂θi2f (θ) обозначает обычный лапласиан. Это можно рассматривать как градиентный поток для свободной энергии Fβ, λ (ρ) = (1/2) R (ρ) + (λ / 2) ∫‖θ‖22ρ (dθ) −β − 1Ent (ρ) , где Ent (ρ) = — ρ (θ) log⁡ρ (θ) dθ — энтропия ρ [по определению Ent (ρ) = — ∞, если ρ сингулярно].Fβ, λ (ρ) — энтропийно-регуляризованный риск, который наказывает сильно неоднородный ρ.

Ниже мы докажем, что при β <∞ эволюция (уравнение 12 ) в общем сходится к минимизатору Fβ, λ (ρ), следовательно, подразумевается глобальная сходимость зашумленной SGD за несколько шагов, не зависящих от N

Примеры

В этом разделе мы обсудим некоторые простые приложения общего подхода, описанного выше. Подчеркнем, что эти примеры нереалистичны. Во-первых, распределение данных P чрезвычайно простое: мы сделали этот выбор, чтобы иметь возможность выполнять явные вычисления.Во-вторых, функция активации σ * (x; θ) не обязательно оптимальна: мы сделали этот выбор, чтобы проиллюстрировать некоторые интересные явления.

Центрированные изотропные гауссианы.

Однонейронные нейронные сети хорошо работают с (почти) линейно разделяемыми данными. Самая простая проблема классификации, которая требует наличия многослойных сетей, — это, возможно, проблема различения двух гауссианов с одинаковым средним значением. Предположим, что совместный закон P для (y, x) имеет следующий вид:

с вероятностью 1/2: y = + 1, x∼N (0, (1 + Δ) 2Id); и

с вероятностью 1/2: y = −1, x∼N (0, (1 − Δ) 2Id).

(Этот пример будет обобщен позже.) Конечно, оптимальная классификация в этой модели становится совершенно тривиальной, если мы вычисляем признак h (x) = ‖x‖2. Однако нетривиально, что нейронная сеть, обученная SGD, добьется успеха.

Мы выбираем функцию активации без смещения или выходных весов, а именно σ * (x; θi) = σ (⟨wi, x⟩). Хотя качественно аналогичные результаты получены для других вариантов σ, мы будем использовать простую кусочно-линейную функцию в качестве рабочего примера: σ (t) = s1, если t≤t1, σ (t) = s2, если t≥t2, и σ ( t) линейно интерполируется по t∈ (t1, t2).При моделировании мы используем t1 = 0,5, t2 = 1,5, s1 = −2,5 и s2 = 7,5.

Мы запускаем SGD с начальными весами (wi0) i≤N∼iidρ0, где ρ0 сферически симметрично. На рис. 1 показан результат такого эксперимента. Благодаря симметрии распределения P распределение ρt остается сферически-симметричным для всех t и, следовательно, полностью определяется распределением ρ¯t нормы r = ‖w‖2. Это распределение удовлетворяет одномерному редуцированному DD: ∂tρ¯t = 2ξ (t) ∂rρ¯t∂rψ (r; ρ¯t), [13] где вид ψ (r; ρ) может быть получен из Ψ (θ; ρ).Это сокращенное PDE может быть эффективно решено численно, технические подробности см. В приложении SI . Как показано на рис. 1, эмпирические результаты точно соответствуют прогнозам, полученным с помощью этого PDE.

Рис. 1.

Эволюция радиального распределения ρ¯t для изотропной гауссовой модели с Δ = 0,8. Гистограммы получены из экспериментов SGD с d = 40, N = 800, начальным распределением веса ρ0 = N (0,0,82 / d⋅Id) и размером шага ϵ = 10-6 и ξ (t) = 1. Сплошные линии соответствуют численному решению DD (уравнение. 13 ).

На рис. 2 мы сравниваем асимптотический риск, достигаемый SGD, с прогнозом, полученным путем минимизации R (ρ) (см. Уравнение 5 ) по сферически-симметричным распределениям. Оказывается, что при определенных значениях Δ минимум достигается за счет равномерного распределения по сфере радиуса ‖w‖2 = r *, обозначаемой ρr * unif. Значение r * вычисляется путем минимизации R¯d (1) (r) = 1 + 2v (r) + ud (r, r), [14] где выражения для v (r), ud (r1, r2) могут легко выводятся из V (w), U (w1, w2) и приведены в приложении SI .

Рис. 2.

Популяционный риск в задаче разделения двух изотропных гауссианов как функция параметра разделения Δ. Мы используем двухуровневую сеть с кусочно-линейной активацией, без смещения и выходными весами, равными 1. Эмпирические результаты, полученные SGD (один прогон на точку данных), отмечены знаком «+». Непрерывные линии представляют собой теоретические прогнозы, полученные путем численного минимизации R (ρ) (подробности см. В приложении SI ). Пунктирные линии представляют собой теоретические предсказания из однодельта-анзаца уравнения. 14 . Обратите внимание, что этот анзац неверен для Δ> Δdh, которое отмечено сплошной круглой точкой. Здесь N = 800.

Лемма 1:

Пусть r * будет глобальным минимизатором r↦Rd (1) (r). Тогда ρr * unif является глобальным минимизатором ρ↦R (ρ) тогда и только тогда, когда v (r) + ud (r, r *) ≥v (r *) + ud (r *, r *) для всех r≥0.

Численная проверка этого условия показывает, что ρr * unif является глобальным минимизатором для Δ в интервале [Δdl, Δdh], где limd → ∞Δdl = 0 и limd → ∞Δdh = Δ∞≈0.47.

Рис. 2 показывает хорошее количественное согласие между эмпирическими результатами и теоретическими прогнозами и предполагает, что SGD достигает значения риска, близкого к оптимальному. Можем ли мы доказать, что это действительно так и что динамика SGD не застревает в локальных минимумах? Оказывается, мы можем использовать нашу общую теорию (см. Следующий раздел), чтобы доказать, что это так при больших d. Чтобы сформулировать этот результат, нам нужно ввести класс хороших неинформативных инициализаций Pgood⊆P (R≥0), для которых имеет место сходимость к оптимуму.Для ρ¯∈P (R≥0) положим R¯d (ρ¯) ≡R (ρ¯ × Unif (Sd − 1)). Этот риск имеет четко определенный предел при d → ∞. Мы говорим, что ρ¯∈Pgood, если (i) ρ¯ абсолютно непрерывно относительно меры Лебега с ограниченной плотностью, (ii) R¯∞ (ρ¯) <1.

Теорема 1:

Для любых η, Δ, δ> 0 и ρ¯0∈Pgood существует d0 = d0 (η, ρ¯0, Δ), T = T (η, ρ¯0, Δ), и C0 = C0 (η, ρ¯0, Δ, δ), такие, что для задачи классификации изотропных гауссианов выполняется следующее.Для любого измерения d≥d0 , количества нейронов N≥C0d, рассмотрим SGD, инициализированный значением (wi0) i≤N∼iidρ¯0 × Unif (Sd − 1) и размером шага ε∈ [1 / N10,1 / (C0d)]. Тогда мы имеем RN (θk) ≤infθ∈RN × dR (θ) + η [15] для любого k∈ [T / ε, 10T / ε] с вероятностью не менее 1 − δ.

В частности, если мы установим ε = 1 / (C0d), то количество шагов SGD будет k∈ ​​[(C0T) d, (10C0T) d]: количество выборок, используемых SGD, не зависит от количества скрытых единиц N и является линейным только по размеру.К сожалению, доказательство не дает зависимости T от η, но теорема 6 ниже предполагает экспоненциальную локальную сходимость.

Хотя мы сформулировали теорему 1 для кусочно-линейных сигмоидов, приложение SI представляет технические условия, при которых она выполняется для общей монотонной функции σ: R → R.

Центрированные анизотропные гауссианы.

Мы можем обобщить предыдущий результат на проблему, в которой сети необходимо выбрать подмножество релевантных нелинейных характеристик из многих априори эквивалентных.Мы предполагаем, что совместный закон (y, x) имеет вид:

с вероятностью 1/2: y = + 1, x∼N (0, Σ +); и

с вероятностью 1/2: y = −1, x∼N (0, Σ−).

Для линейного подпространства V⊆Rd размерности s0≤d мы предполагаем, что Σ +, Σ− однозначно различаются вдоль V: Σ ± = Id + (τ ± 2−1) PV, где τ ± = (1 ± Δ) а PV — ортогональный проектор на V. Другими словами, проекция x на подпространство V распределена согласно изотропному гауссиану с дисперсией τ + 2 (если y = + 1) или τ − 2 (если y = −1 ). Проекция, ортогональная V, вместо этого имеет одинаковую дисперсию в двух классах.Успешный классификатор должен быть в состоянии изучить соответствующее подпространство V. Мы предполагаем тот же класс активаций σ * (x; θ) = σ (⟨w, x⟩), что и для изотропного случая.

Распределение P инвариантно относительно приведенной группы симметрии O (s0) × O (d − s0). Как следствие, полагая r1 = PVw‖2 и r2≡‖ (Id − PV) w‖2, достаточно рассматривать распределения ρ, которые являются однородными, обусловленными значениями r1 и r2. Если мы инициализируем ρ0 как равномерное условие на (r1, r2), это свойство сохраняется в результате эволюции (ур. 7 ). Как и в изотропном случае, мы можем использовать нашу общую теорию, чтобы доказать сходимость к почти оптимальному, если d достаточно велико.

Теорема 2:

Для любых η, Δ, δ> 0 и ρ¯0∈Pgood, существует d0 = d0 (η, ρ¯0, Δ, γ), T = T ( η, ρ¯0, Δ, γ), и C0 = C0 (η, ρ¯0, Δ, δ, γ), такие, что для задачи классификации анизотропных гауссианов с s0 = γd выполняется следующее: γ∈ (0,1) фиксировано. Для любых размерных параметров s0 = γd≥d0, количество нейронов N≥C0d, считают SGD инициализированным с инициализацией (wi0) i≤N∼iidρ¯0 × Unif (Sd − 1) и размером шага ε ∈ [1 / N10,1 / (C0d)]. Тогда мы имеем RN (θk) ≤infθ∈RN × dRN (θ) + η для любого k∈ [T / ε, 10T / ε] с вероятностью не менее 1 − δ.

Даже с пониженной степенью симметрии SGD сходится к сети с почти оптимальным риском после использования количества выборок k = O (d), которое не зависит от количества скрытых единиц N.

Улучшенная функция активации .

В наших предыдущих примерах используются функции активации σ * (x; θ) = σ (⟨w, x⟩) без выходных весов или смещения, чтобы упростить анализ и проиллюстрировать некоторые интересные явления.Здесь мы вместо этого рассматриваем активацию стандартного выпрямленного линейного блока (ReLU) и подбираем как выходной вес, так и смещение: σ * (x; θ) = a σReLU (⟨w, x⟩ + b), где σReLU (x) = max (х, 0). Следовательно, θ = (w, a, b) ∈Rd + 2.

Мы рассматриваем то же распределение данных, что и в предыдущем разделе (анизотропные гауссианы). На рис. 3 показана эволюция риска RN (θk) для трех экспериментов с d = 320, s0 = 60 и различными значениями Δ. SGD инициализируется установкой ai = 1, bi = 1 и wi0∼iidN (0,0.82 / d⋅Id) для i≤N. Мы видим, что SGD сходится к сети с очень небольшим риском, но эта конвергенция имеет нетривиальную структуру и представляет собой длинные плоские области.

Рис. 3.

Эволюция популяционного риска для задачи выбора переменной с использованием двухуровневой нейронной сети с активациями ReLU. Здесь d = 320, s0 = 60 и N = 800, и мы использовали ξ (t) = t − 1/4 и ε = 2 × 10−4, чтобы установить размер шага. Численное моделирование с использованием SGD (один прогон на точку данных) отмечен знаком +, а кривые представляют собой решения сокращенного PDE с d = ∞. ( Вставка ) Эволюция трех параметров сокращенного распределения ρ¯t (средние выходные веса a, средние смещения b и средняя норма ℓ2 в соответствующем подпространстве r1) для одной и той же настройки.

Эмпирические результаты хорошо отражаются в наших прогнозах, основанных на континуальном пределе. В этом случае мы получаем сокращенное уравнение в частных производных для совместного распределения четырех величин r = (a, b, r1 = ‖PVw‖2, r2 = ‖PV⊥w‖2), обозначаемого ρ¯t. Приведенный PDE аналогичен уравнению. 13 , хотя и в четырех измерениях, а не в одном. На рис. 3 мы рассматриваем эволюцию риска наряду с тремя свойствами распределения ρ¯t — средними значениями выходного веса a, смещения b и r1.

Прогнозирование сбоя.

SGD не всегда приближается к почти глобальному оптимуму. Наш анализ позволяет нам построить примеры, в которых SGD терпит неудачу. Например, на рис. 4 представлены результаты для задачи об изотропных гауссианах. Мы нарушаем условия теоремы 1, используя немонотонную функцию активации. А именно, мы используем σ * (x; θ) = σ (⟨w, x⟩), где σ (t) = — 2,5 для t≤0, σ (t) = 7,5 для t≥1,5 и σ (t) линейно интерполирует от (0, –2.5) до (0.5, –4) и от (0.5, –4) до (1.5,7.5).

Рис. 4.

Разделение двух изотропных гауссианов с немонотонной функцией активации (подробности см. В Predicting Failure ).Здесь N = 800, d = 320, Δ = 0,5. В основном кадре представлена ​​эволюция популяционного риска вдоль траектории SGD, начиная с двух различных инициализаций (wi0) i≤N∼iidN (0, κ2 / d⋅Id) для κ = 0,1 или κ = 0,4. На вкладке Врезка изображена эволюция среднего значения ‖w‖2 для тех же условий. Символы представляют собой эмпирические результаты. Непрерывные линии — это прогнозы, полученные с уменьшенным PDE (уравнение 13 ).

В зависимости от инициализации SGD сходится к двум разным пределам, одно с небольшим риском, а второе с высоким риском.Опять же, это поведение хорошо отслеживается путем решения одномерного уравнения в частных производных для распределения ρ¯t для r = ‖w‖2.

Общие результаты

В этом разделе мы возвращаемся к общей проблеме контролируемого обучения, описанной во введении, и описываем наши общие результаты. Доказательства отложены до SI Приложение .

Во-первых, отметим, что минимум асимптотического риска R (ρ) уравнения. 5 обеспечивает хорошее приближение к минимуму риска конечного N RN (θ).

Предложение 1:

Предположим, что выполняется одно из следующих условий : (a) infρR (ρ) достигается распределением ρ * таким, что ∫U (θ, θ) ρ * (dθ ) ≤K; (b) Существует ε0> 0 такое, что , для любого ρ∈P (RD) , такого что R (ρ) ≤infρR (ρ) + ε0, , мы имеем ∫U (θ, θ) ρ (dθ) ≤K. Тогда infθRN (θ) −infρR (ρ) ≤K / N. [16] Далее , предполагают, что θ↦V (θ) и (θ1, θ2) ↦U (θ1, θ2) являются непрерывными , с U , ограниченными ниже . Вероятностная мера ρ * является глобальным минимумом R , если infθ∈RDΨ (θ; ρ *)> — ∞ и supp (ρ *) ⊆argminθ∈RDΨ (θ; ρ *). [ 17] Далее мы рассмотрим DD (уравнения 7 и 12 ). Их следует истолковывать в слабом смысле (см. Приложение SI, приложение ). Чтобы установить, что эти PDE действительно описывают предел динамики SGD, мы делаем следующие предположения:

  • A1. t↦ξ (t) является ограниченным липшицевым: ‖ξ‖∞, ‖ξ‖Lip≤K1, причем ∫0∞ξ (t) dt = ∞.

  • A2. Функция активации (x, θ) ↦σ * (x; θ) ограничена с субгауссовым градиентом: ‖σ * ‖∞≤K2, ‖∇θσ * (X; θ) ‖ψ2≤K2. Метки ограничены | yk | ≤K2.

  • A3. Градиенты θ↦∇V (θ), (θ1, θ2) ↦∇θ1U (θ1, θ2) ограничены, липшицевы [а именно ‖∇θV (θ) ‖2, ‖∇θ1U (θ1, θ2) ‖2≤ K3, ‖∇θV (θ) −∇θV (θ ′) ‖2≤K3‖θ − θ′‖2, ‖∇θ1U (θ1, θ2) −∇θ1U (θ1 ′, θ2 ′) ‖2≤K3‖ (θ1, θ2) — (θ1 ′, θ2 ′) ‖2].

Мы также вводим следующий член ошибки, который в неасимптотическом смысле определяет точность нашей модели PDE: errN, D (z) ≡1 / N∨ε⋅D + log (N / ε) + z.[18] Сходимость процесса SGD к модели PDE является примером явления, известного в теории вероятностей как распространение хаоса (23).

Теорема 3:

Предположим, что выполнены условия A1 , A2 , A3 . Для ρ0∈P (RD), рассмотрим SGD с инициализацией (θi0) i≤N∼iidρ0 и размером шага sk = εξ (kε). Для t≥0, пусть ρt будет решением PDE (уравнение 7 ).k (N) ⇒ρkε почти наверняка вдоль любой последовательности (N, ε = εN) такой, что N / log (1 / εN) → ∞, εN → 0. Кроме того, существует постоянная C (, однозначно зависящая от параметров Ki условий A1 A3 ) такая, что , для любого f: RD × R → R, с F‖∞, ‖f‖Lip≤1 , ε≤1, supk∈ [0, T / ε] ∩N1N∑i = 1Nf (θik) −∫ f (θ) ρkε (dθ) ≤CeCT errN, D (z), supk∈ [0, T / ε] ∩NRN (θk) −R (ρkε) ≤CeCT errN, D (z), [19] с вероятностью 1 − e − z2. Те же утверждения справедливы для шумных SGD (уравнение 11 ), при условии уравнение. 7 заменяется на Ур. 12 , и если β≥1, λ≤1, и ρ0 будет K0 субгауссовским для некоторого K0> 0.

Обратите внимание, что зависимость членов ошибки в N и D довольно мягкая. С другой стороны, ошибка экспоненциально растет с увеличением временного горизонта T, что ограничивает ее применимость случаями, когда DD быстро сходится к хорошему решению.Мы не ожидаем, что это поведение будет улучшено в пределах общей настройки 0,3, которая априори включает случаи, в которых динамика нестабильна.

Мы можем рассматривать J (θ; ρt) = ρt (θ) ∇θΨ (θ; ρt) как ток. Неподвижными точками динамики континуума являются плотности, соответствующие нулевому току, как указано ниже.

Предложение 2:

Предположим, что V (⋅), U (⋅, ⋅) дифференцируемы с ограниченным градиентом . Если ρt является решением PDE (уравнение. 7 ), , то R (ρt) не возрастает. Кроме того, , распределение вероятностей ρ является фиксированной точкой PDE (уравнение 7 ) тогда и только тогда, когда supp (ρ) ⊆θ: ∇θΨ (θ; ρ) = 0. [20] Обратите внимание, что глобальные оптимизаторы R (ρ), определенные условием (уравнение 17 ), являются фиксированными точками, но набор фиксированных точек, как правило, больше, чем набор оптимизаторов. Наше следующее предложение обеспечивает аналогичную характеристику неподвижных точек диффузии DD (уравнение. 12 ) (соответствующие результаты см. В ссылке 21).

Предложение 3:

Предположим, что выполнены условия A1 – A3 и что ρ0 абсолютно непрерывно относительно меры Лебега , с Fβ, λ (ρ0) <∞. Если (ρt) t≥0 является решением диффузионной PDE (уравнение 12 ), , то ρt абсолютно непрерывно. Кроме того, , существует не более одной фиксированной точки ρ * = ρ * β, λ из Ур. 12 , удовлетворяющие Fβ, λ (ρ *) <∞. Эта неподвижная точка абсолютно непрерывна, и ее плотность удовлетворяет условию ρ * (θ) = 1Z (β) exp − βΨλ (θ; ρ *). [21] В следующих разделах мы сформулируем наши результаты о сходимости DD к его неподвижная точка. В случае зашумленного SGD [и для диффузионного PDE (12)] общий результат сходимости может быть установлен (хотя и за счет дополнительной регуляризации). Для бесшумного SGD (и уравнения неразрывности; уравнение 12 ) у нас нет такого общего результата.Однако мы получаем условие устойчивости для неподвижной точки, содержащей одну точечную массу, которое полезно для характеристики возможных предельных точек (и используется при рассмотрении примеров в предыдущем разделе).

Конвергенция: Шумный SGD.

Примечательно, что диффузионная УЧП (уравнение 12 ) обычно допускает уникальную фиксированную точку, которая является глобальным минимумом Fβ, λ (ρ), и эволюция (уравнение 12 ) сходится к ней, если инициализирована так что Fβ, λ (ρ0) <∞. Это заявление требует некоторых оговорок.Во-первых, мы вводим достаточные предположения регулярности, чтобы гарантировать существование достаточно гладких решений уравнения (1). 12 :

  • i ) V∈C4 (RD), U∈C4 (RD × RD), ∇θ1kU (θ1, θ2) равномерно ограничено для 0≤k≤4.

Затем обратите внимание, что правая часть уравнения с фиксированной точкой (уравнение 21 ) не обязательно нормализуема [например, это не так, когда V (⋅), U (⋅, ⋅) ограничены]. Чтобы обеспечить существование неподвижной точки, нам нужно λ> 0.

Теорема 4:

Предположим, что условия A1 A4 выполняются , и 1 / K0≤λ≤K0 для некоторого K0> 0. Тогда Fβ, λ (ρ) имеет уникальный минимизатор , , обозначенный как ρ * β, λ, , который удовлетворяет R (ρ * β, λ) ≤infθ∈RN × DRN (θ) + C D / β, [22] , где C — постоянная, зависящая от K0, K1, K2, K3. Далее , , позволяя ρt быть решением диффузионного PDE (уравнение. 12 ) с инициализацией, удовлетворяющей Fβ, λ (ρ0) <∞, мы имеем , при t → ∞, ρt⇒ρ * β, λ. [23] Доказательство этой теоремы основано на следующая формула, которая описывает уменьшение свободной энергии вдоль траекторий DD (уравнение 12 ): dFβ, λ (ρt) dt = −2ξ (t) ∫RD‖∇θΨλ (θ; ρt) + 1 / β ⋅logρt (θ) ‖22ρt (θ) dθ. [24] (Ключевое техническое препятствие, конечно, состоит в том, чтобы доказать, что это выражение имеет смысл, что мы и делаем, показывая существование сильных решений.) Отсюда следует, что правая часть должна исчезнуть при t → ∞, из чего мы доказываем, что (в конечном итоге взяв подпоследовательности) ρt⇒ρ *, где ρ * должно удовлетворять βΨλ (θ; ρ *) + logρ * (θ) = const.Это, в свою очередь, означает, что ρ * является решением условия 21 неподвижной точки и фактически является глобальным минимумом Fβ, λ по выпуклости.

Этот результат можно использовать вместе с теоремой 3 для анализа регуляризованного зашумленного алгоритма SGD (уравнение 11 ).

Теорема 5:

Предположим, что выполняются условия A1 A4 . Пусть ρ0∈P (RD) абсолютно непрерывно с Fβ, λ (ρ0) <∞ и K0 субгауссовского . Рассмотрим регуляризованный зашумленный SGD ( cf . Eq. 11 ) при обратной температуре β <∞, регуляризация 1 / K0≤λ≤K0 с инициализацией (θi0) i≤N∼iidρ0. Тогда , для любого η> 0, существует K = K (η, {Ki}), и, положив β≥KD, существует T = T (η, V, U, { Ki}, D, β) <∞ и C0 = C0 (η, {Ki}, δ) независимо от размера D и температуры β ), так что для N выполняется следующее: (1 / ε) ≥C0eC0TD, ε≥1 / N10: Для любого k∈ [T / ε, 10T / ε], мы имеем , с вероятностью 1 − δ, RN (θk) ≤infρ∈P (RD) Rλ (ρ) + η.[25] Подчеркнем, что время сходимости T в последней теореме может зависеть от размерности D и от распределения данных P, но не зависит от количества скрытых единиц N. Как показано в примерах в предыдущем разделе, понимание зависимость T от D требует дальнейшего анализа, но изучение доказательства этой теоремы предполагает, что T = eO (D) в общем случае [можно построить примеры, в которых T = O (1) или T = eΘ (D)]. Мы ожидаем, что наши методы могут быть использованы для исследования зависимости T от η (см. SI Приложение , Обсуждение ).В сильно структурированных случаях размер D может быть постоянного порядка и быть намного меньше d.

Конвергенция: Бесшумный SGD.

Следующие теоремы обеспечивают необходимые и достаточные условия для того, чтобы распределения, содержащие одну точечную массу, были устойчивой фиксированной точкой эволюции. Этот результат полезен для характеристики асимптотики динамики при больших временах (уравнение 7 ). Здесь мы пишем ∇1U (θ1, θ2) для градиента U относительно его первого аргумента и ∇1,12U для соответствующего гессиана.Далее, для распределения вероятностей ρ * определим H0 (ρ *) = ∇2V (θ *) + ∫∇1,12U (θ *, θ) ρ * (dθ). [26] Обратите внимание, что H0 (ρ *) есть не что иное, как гессиан функции θ↦Ψ (θ; ρ *) в точке θ *.

Теорема 6:

Предположим, что V, U дважды дифференцируемы с ограниченным градиентом и ограниченным непрерывным гессианом . Пусть θ * ∈RD задано . Тогда ρ * = δθ * является фиксированной точкой эволюции (уравнение 7 ) тогда и только тогда, когда ∇V (θ *) + ∇1U (θ *, θ *) = 0.

Определите H0 (δθ *) ∈RD × D согласно Eq. 26 . Если λmin (H0 (δθ *))> 0, , то существует r0> 0 такое, что , , если supp (ρt0) ⊆B (θ *; r0) ≡ {θ: ‖θ − θ * ‖2≤r0}, , затем ρt⇒ρ * при t → ∞. На самом деле , сходимость экспоненциально быстрая , , а именно ∫‖θ − θ * ‖22ρt (dθ) ≤e − λ (t − t0) для некоторого λ> 0.

Теорема 7:

При тех же предположениях теоремы 6 , пусть ρ * = p * δθ * + (1 − p *) ρ̃ * ∈P (RD) будет фиксированной точкой динамики ( Уравнение 7 ), с p * ∈ (0,1] и ∇Ψ (θ *; ρ *) = 0 (, который , , в частности , подразумевается условием фиксированной точки ; Уравнение 20 ). Определите наборы уровней L (η) ≡ {θ: Ψ (θ; ρ *) ≤Ψ (θ *; ρ *) — η} и сделайте следующие предположения : (B1 ) Собственные значения H0 = H0 (ρ *) все отличаются от 0, с λmin (H0) <0; (B2) ρ̃ * (L (η)) ↑ 1 as η ↓ 0 ; и (B3) существует η0> 0 такое, что множества ∂L (η) компактны для всех η∈ (0, η0).

Если ρ0 имеет ограниченную плотность относительно меры Лебега , , то не может быть, что ρt слабо сходится к ρ * при t → ∞.

Обсуждение и направления на будущее

В этой статье мы разработали подход к анализу двухуровневых нейронных сетей. Используя аргумент распространения хаоса, мы доказали, что — если количество скрытых единиц удовлетворяет N≫D — динамика SGD хорошо аппроксимируется PDE в уравнении. 7 , в то время как шумный SGD хорошо аппроксимируется формулой. 12 . Оба этих асимптотических описания соответствуют градиентным потокам Вассерштейна для определенных функционалов энергии (или свободной энергии). Хотя известно, что минимизация эмпирического риска нечувствительна к чрезмерной параметризации (22), в настоящей работе выясняется, что поведение SGD также не зависит от количества скрытых единиц, если оно достаточно велико.

Мы проиллюстрировали наш подход на нескольких конкретных примерах, доказав сходимость SGD к почти глобальному оптимуму.Этот тип анализа обеспечивает механизм, позволяющий избежать рисков невыпуклости. Мы не доказываем, что риск RN (θ) с конечным числом N имеет единственный локальный минимум или что все локальные минимумы близки друг к другу. Такие утверждения часто были целью более ранних работ, но могут быть слишком сильными для нейронных сетей. Вместо этого мы доказываем, что PDE (уравнение 7 ) сходится к почти глобальному оптимуму при инициализации с ограниченной плотностью. Это эффективно избавляет от некоторых исключительных стационарных точек RN (θ) и объединяет несколько конечных N стационарных точек, которые приводят к аналогичным распределениям ρ.

В случае зашумленного SGD (уравнение 11 ) мы доказываем, что он в общем сходится к почти глобальному минимуму регуляризованного риска во времени, независимо от количества скрытых единиц.

Мы подчеркиваем, что, хотя мы сосредоточились здесь на случае квадратичных потерь, наш подход должен быть обобщен и на другие функции потерь (см. SI Приложение ).

Настоящая работа открывает путь к нескольким интересным направлениям исследований. Мы упомянем два из них: (i) PDE (ур. 7 ) соответствует градиентному потоку в метрике Вассерштейна для риска R (ρ) (см. Ссылку 20). Основываясь на этом замечании, для доказательства сходимости можно использовать инструменты теории оптимальных перевозок. (ii) Множественные конечные N локальных минимумов могут соответствовать одному и тому же минимизатору ρ * R (ρ) в пределе N → ∞. Идеи теории стекла (24) могут быть полезны для исследования этой структуры.

Наконец, отметим, что после того, как первая версия этой статьи появилась в виде препринта, несколько других групп получили результаты, которые тесно связаны с теоремой 3 (25–27).

Благодарности

Эта работа частично поддержана грантами NSF DMS-1613091, CCF-1714305 и IIS-1741162. С.М. была частично поддержана стипендиатом Стэнфордского отдела лицензирования технологий. П.-М.Н. была частично поддержана стипендией Уильяма Р. Хьюлетта Стэнфордского университета.

Сноски

  • Вклад авторов: S.M., A.M., and P.-M.N. разработал исследования, провел исследования, предоставил новые реагенты / аналитические инструменты, проанализировал данные и написал статью.

  • Авторы заявляют об отсутствии конфликта интересов.

  • Эта статья представляет собой прямое представление PNAS.

  • Эта статья содержит вспомогательную информацию на сайте www.pnas.org/lookup/suppl/doi:10.1073/pnas.1806579115/-/DCSupplemental.

  • Авторские права © 2018 Автор (ы). Опубликовано PNAS.

Связать / отсоединить две сущности с отношениями 1: N и N: N, используя записи Relate & Unrelate в Power Automate

Введение

Power Automate представляет новые функции, одна из которых — функция «Связать / не связать записи».Это шаг к новому соединителю службы общих данных, который поддерживает отношения 1: N, N: N. Теперь давайте посмотрим на примере, как это работает. У нас есть две сущности «Контакт» и «Веб-роль», и между ними существует отношение N: N.
Наш поток будет запущен при создании контакта, и для этого контакта мы установим веб-роль по умолчанию как аутентифицированных пользователей.
Здесь мы сначала инициализируем переменную и устанавливаем в ней имя роли по умолчанию.

Теперь выберите веб-роль, используя имя веб-роли.

Нам также необходимо инициализировать еще одну переменную для хранения @ odata.id веб-роли, которая на самом деле является полным URL-адресом ресурса веб-роли, например. https://organizationName.crm8.dynamics.com/api/data/v9.0/adx_webroles(844598bc-d0cb-410a-b2de-b6f2c4dbc487)

(разъем CDS динамически предоставляет его вместе с деталями записи.)

На следующем шаге установите значение нашей переменной идентификатора роли.

Здесь вы увидите, что мы настраиваем только одну веб-роль в записи контакта, и именно по этой причине мы используем переменную для инициализации и установки ее с помощью идентификатора веб-роли в приложении для каждого цикла, но мы могли бы иметь Требование установить более одной веб-роли в контакте, поэтому в это время мы должны разместить шаг связанных записей внутри каждого цикла применения, а не настраивать переменную.

Теперь, наконец, установите шаг «Связать записи», где нужно установить некоторые свойства, как указано ниже.

Вам необходимо заполнить следующие свойства:

  • Имя объекта: — Выберите объект, который имеет отношение N: N, 1: N с ассоциированным объектом, в нашем случае это контакт.
  • Идентификатор позиции: — Идентификатор записи.
  • Отношение: — Выберите отношение.
  • URL: — Полный адрес связанной записи объекта, который мы сохранили в переменной идентификатора роли.

Обратите внимание, что если вы хотите удалить связь, вы можете использовать шаг «Разъединить записи», который также требует тех же свойств, что и шаг «Связать записи».

Результат: — Пожалуйста, проверьте скриншот ниже, когда мы создали контакт в CRM и поток был запущен соответственно.

Заключение

Итак, вот как с помощью шага связанных и несвязанных записей мы можем связать или разъединить две сущности, которые имеют отношение 1: N или N: N между ними.

Этот сайт использует файлы cookie для повышения производительности. Если ваш браузер не принимает файлы cookie, вы не можете просматривать этот сайт.


Настройка вашего браузера для приема файлов cookie

Существует множество причин, по которым cookie не может быть установлен правильно. Ниже приведены наиболее частые причины:

  • В вашем браузере отключены файлы cookie. Вам необходимо сбросить настройки своего браузера, чтобы он принимал файлы cookie, или чтобы спросить вас, хотите ли вы принимать файлы cookie.
  • Ваш браузер спрашивает вас, хотите ли вы принимать файлы cookie, и вы отказались.
    Чтобы принять файлы cookie с этого сайта, нажмите кнопку «Назад» и примите файлы cookie.
  • Ваш браузер не поддерживает файлы cookie. Если вы подозреваете это, попробуйте другой браузер.
  • Дата на вашем компьютере в прошлом. Если часы вашего компьютера показывают дату до 1 января 1970 г.,
    браузер автоматически забудет файл cookie. Чтобы исправить это, установите правильное время и дату на своем компьютере.
  • Вы установили приложение, которое отслеживает или блокирует установку файлов cookie.
    Вы должны отключить приложение при входе в систему или проконсультироваться с системным администратором.

Почему этому сайту требуются файлы cookie?

Этот сайт использует файлы cookie для повышения производительности, запоминая, что вы вошли в систему, когда переходите со страницы на страницу. Чтобы предоставить доступ без файлов cookie
потребует, чтобы сайт создавал новый сеанс для каждой посещаемой страницы, что замедляет работу системы до неприемлемого уровня.


Что сохраняется в файле cookie?

Этот сайт не хранит ничего, кроме автоматически сгенерированного идентификатора сеанса в cookie; никакая другая информация не фиксируется.

Как правило, в файлах cookie может храниться только информация, которую вы предоставляете, или выбор, который вы делаете при посещении веб-сайта.

Добавить комментарий

Ваш адрес email не будет опубликован.