Куда сдавать сзв м: Как сдать СЗВ-М на бумаге

Когда сдавать отчет СЗВ-М за сентябрь 2022 года

Когда сдавать отчет СЗВ-М за сентябрь 2022 года — БУХ.1С, сайт в помощь бухгалтеру

Новости для бухгалтера, бухучет, налогообложение, отчетность, ФСБУ, прослеживаемость и маркировка, 1С:Бухгалтерия

  • Новости
  • Статьи
  • Вопросы и ответы
  • Видео
  • Форум

29.07.2022


Отделение ОПФР по Москве и Московской области уточнила срок представления отчета СЗВ-М, если последний день установленного законодательство срока приходится на нерабочий день.

В письме от 12.07.2022 № Т-28423-68/35310 отмечается, что закон о персонифицированном учете (от 01.04.1996 № 27-ФЗ) обязывает работодателей ежемесячно не позднее 15-го числа месяца, следующего за отчетным, представлять сведения о каждом работнике. Данная отчетность представляется по форме СЗВ-М, утвержденной постановлением Правления ПФР от 15.04.2021 № 103п.

При этом законом № 27-ФЗ не определен порядок переноса представления отчетности, если последний день срока приходится на выходной или нерабочий праздничный день.

Вместе с тем в случаях, когда отношения прямо не урегулированы законодательством, к таким отношениям, если это не противоречит их существу, применяется законодательство, регулирующее сходные отношения (аналогия закона).

Так, по нормам статьи 193 ГК РФ, если последний день срока приходится на нерабочий день, днем окончания срока считается ближайший следующий за ним рабочий.

Таким образом, так как срок представления отчетности по форме СЗВ-М за сентябрь 2022 года выпадает на выходной (15.10.2022), то последним днем срока считается следующий за ним рабочий — 17.10.2022. 

Следить за новостями удобно в нашем новостном telegram-канале. Присоединяйтесь!

Темы:
СЗВ-М, сроки представления отчетности, перенос сроков

Рубрика:
Отчетность в ПФР

Подписаться на комментарии

Отправить на почту

Печать

Написать комментарий

Самое новое в «1С:Бухгалтерии 8»: формы СЗВ-ТД и СЗВ-СТАЖ по приостановке трудового договора на период мобилизации
Когда организация должна сдавать СЗВ-М и СЗВ-СТАЖ по самозанятым исполнителям работ
ПФР утвердил новые коды для отчета СЗВ-ТД
Утверждены новые коды для заполнения формы СЗВ-СТАЖ в отношении мобилизованных работников
ПФР подготовил новые формы документов для применения штрафных санкций к работодателям

Мероприятия

1C:Лекторий: 10 ноября 2022 года (четверг, все желающие, начало в 12:00) — Кадровый ЭДО — практика использования сервиса 1С:Кабинет сотрудника, новые возможности

1C:Лекторий: 17 ноября 2022 года (четверг, начало в 12:00) — Раздельный учет по налогу на прибыль в «1С:ERP» и «1С:КА»

1C:Лекторий: 24 ноября 2022 года (четверг) — Новое в программе «1С:ЗУП 8» (ред. 3)

1C:Лекторий: 6 декабря 2022 года (вторник, начало в 10:00) — Учет и отчетность по страховым взносам после объединения ПФР и ФСС

Все мероприятия

Логистическая регрессия против машин опорных векторов (SVM) | Патрисия Бэсси | Axum Labs

Логистическая регрессия и методы опорных векторов представляют собой контролируемые алгоритмы машинного обучения. Оба они используются для решения задач классификации (сортировки данных по категориям). Иногда может быть сложно понять, когда использовать любой из этих алгоритмов машинного обучения. Я собираюсь предоставить рекомендации по использованию в зависимости от количества данных или функций, которые у вас есть.

Логистическая регрессия — это алгоритм, используемый при решении задач классификации. Это прогностический анализ, который описывает данные и объясняет взаимосвязь между переменными. Логистическая регрессия применяется к входной переменной (X), где выходная переменная (y) представляет собой дискретное значение, которое находится в диапазоне от 1 (да) до 0 (нет).

Используется логистическая (сигмовидная) функция для нахождения взаимосвязи между переменными. Сигмовидная функция представляет собой S-образную кривую, которая может принимать любое число с действительным знаком и отображать его в значение от 0 до 1, но никогда точно в этих пределах.

Иллюстрация сигмовидной кривой из Википедии

Проблемы с применением алгоритма логистической регрессии

  1. Обнаружение рака — может использоваться для определения того, есть ли у пациента рак (1) или нет (0).
  2. Оценка за тест — предсказать, сдал ли учащийся(1) или провалил(0) тест.
  3. Маркетинг — предсказать, купит ли клиент продукт (1) или нет (0).

Вот очень подробный обзор алгоритма логистической регрессии.

Машина опорных векторов — это модель, используемая как для задач классификации, так и для задач регрессии, хотя в основном она используется для решения задач классификации. Алгоритм создает гиперплоскость или линию (границу решения), которая разделяет данные на классы. Он использует трюк ядра, чтобы найти лучший разделитель строк (граница решения, которая находится на одинаковом расстоянии от граничной точки обоих классов). Это понятный и более мощный способ изучения сложных нелинейных функций.

Вот очень подробный обзор алгоритма опорных векторов.

Задачи, которые можно решить с помощью SVM

  1. Классификация изображений
  2. Распознавание рукописного текста
  3. Обнаружение Caner
  • SVM пытается найти «лучший» запас (расстояние между линией и опорными векторами), который разделяет классы и это снижает риск ошибки в данных, в то время как логистическая регрессия этого не делает, вместо этого она может иметь разные границы решений с разными весами, которые близки к оптимальной точке.
  • SVM хорошо работает с неструктурированными и частично структурированными данными, такими как текст и изображения, в то время как логистическая регрессия работает с уже идентифицированными независимыми переменными.
  • SVM основан на геометрических свойствах данных, тогда как логистическая регрессия основана на статистических подходах.
  • Риск переобучения меньше в SVM, в то время как логистическая регрессия уязвима к переобучению.

В зависимости от количества обучающих наборов (данных)/признаков, которые у вас есть, вы можете использовать либо логистическую регрессию, либо метод опорных векторов.

Возьмем их в качестве примера, где:
n = количество функций,
m = количество обучающих примеров

1. Если n большое (1–10 000), а m маленькое (10–1000) : используйте логистическую регрессию или SVM с линейным ядром.

2. Если n малое (1–10 00), а m среднее (10–10 000 ): используйте SVM с (гауссовым, полиномиальным и т. д.) ядром

3. Если n малое (1–10 00 ), m большое (50 000–1 000 000+): сначала вручную добавить больше признаков, а затем использовать логистическую регрессию или SVM с линейным ядром

Как правило, обычно рекомендуется сначала попробовать использовать логистическую регрессию, чтобы увидеть, как работает модель. Если это не удается, вы можете попробовать использовать SVM без ядра (также известное как SVM с линейным ядром). Логистическая регрессия и SVM с линейным ядром имеют одинаковую производительность, но в зависимости от ваших функций один может быть более эффективным, чем другой.

Логистическая регрессия и SVM — отличные инструменты для обучения задачам классификации и регрессии. Полезно знать, когда использовать любой из них, чтобы сэкономить вычислительные затраты и время.

Метод опорных векторов для многомерных показателей эффективности

SVM-perf: Метод опорных векторов для многомерных показателей качества

Автор:

Thorsten Joachims Cornell University
Компьютерный факультет
Наука

Версия: 3.00
Дата: 07.09.2009

Обзор

SVM perf является реализацией машины опорных векторов (SVM)
формулировка для оптимизации многомерных показателей эффективности, описанная в [Joachims,
2005]. Кроме того, SVM perf реализует альтернативу
структурная формулировка задачи оптимизации SVM для обычного бинарного
классификация с частотой ошибок и порядковой регрессией, описанная в [Joachims,
2006]. Итак, есть три причины, по которым вы можете использовать SVM перф. вместо
SVM легкий
:

  • Оптимизировать бинарные правила классификации SVM непосредственно в ROC-Area, F1-Score,
    и точка безубыточности Precision/Recall (см. [Joachims, 2005]).
  • Обучение SVM обычной линейной классификации, оптимизирующее частоту ошибок во времени
    это линейно по размеру обучающих данных через альтернативу, но
    эквивалентная постановка задачи обучения (см. [Joachims, 2006]). Это может
    быть намного быстрее, чем SVM свет для
    большие тренировочные комплексы.
  • Обучайте стандартные SVM линейной порядковой регрессии [Herbrich et al., 1999]
    оптимизация количества неправильно упорядоченных пар во времени, которое составляет O (n log (n)) в
    размер обучающих данных с помощью альтернативной, но эквивалентной формулировки
    задачи обучения (см. [Joachims, 2006]). В настоящее время это реализовано
    только для рейтингов с двумя рангами.
  • Обучение SVM с разреженным ядром с помощью Cutting-Plane Subspace Pursuit (CPSP)
    алгоритм (см. [Joachims & Yu, 2009]). Алгоритм позволяет проводить крупномасштабное обучение
    нелинейных ядерных SVM и быстрых прогнозов на тестовых примерах. Это
    достигается за счет ограничения количества опорных векторов и разрешения опорных
    векторы (или, точнее, базисные функции), которые не обязательно
    тренировочные векторы.
  • Здесь описаны новые возможности версии V3.00.

Эта реализация является экземпляром SVM struct . Больше информации о SVM Структура доступна здесь.

Исходный код

Программа бесплатна для научного использования. Пожалуйста, свяжитесь со мной, если вы планируете использовать программное обеспечение в коммерческих целях. Программное обеспечение не подлежит дальнейшему распространению без предварительного разрешения автора.
Если вы используете SVM perf в своей научной работе, укажите как

  • Т. Йоахимс, Обучение линейным SVM в линейном времени, Труды
    Конференция ACM по обнаружению знаний и интеллектуальному анализу данных (KDD), 2006 г.
    [Постскриптум
    (gz)]  [PDF]
  • Т. Джоахимс, Метод опорных векторов для многомерных показателей эффективности , Труды Международной конференции по машинному обучению (ICML), 2005 г.

    [Постскриптум (gz)]  [PDF]

  • T. Joachims, Chun-Nam John Yu, SVM Sparse Kernel через Cutting-Plane
    Обучение
    , Материалы Европейской конференции по машинному обучению (ECML),
    Журнал машинного обучения, специальный выпуск ECML, 2009 г. [PDF]

в зависимости от того, какой аспект программного обеспечения вы используете. Реализация была разработана на
Linux с gcc, но также компилируется на Solaris, Cygwin, Windows (используя MinGW в
Cygwin) и
Mac (могут потребоваться небольшие модификации, см. FAQ).
Исходный код доступен по следующему адресу:

.

https://download.joachims.org/svm_perf/current/svm_perf.tar.gz

Если вам нужны только двоичные файлы, вы можете скачать их для следующих систем:

  • Linux (32-разрядная версия): https://download.joachims.org/svm_perf/current/svm_perf_linux32.tar.gz
  • Linux (64-разрядная версия): https://download.joachims.org/svm_perf/current/svm_perf_linux64.tar.gz
  • Cygwin: https://download.joachims.org/svm_perf/current/svm_perf_cygwin.tar.gz
  • Windows: https://download.joachims.org/svm_perf/current/svm_perf_windows.zip

Пожалуйста, отправьте мне электронное письмо и дайте мне знать, что вы его получили. В архиве находится исходный код самой последней версии SVM perf , который включает исходный код SVM struct и квадратичный оптимизатор SVM light . Распакуйте архив с помощью команды оболочки:

 gunzip c svm_perf. tar.gz | смола xvf 

Это расширяет архив в текущий каталог, который теперь содержит все соответствующие файлы. Вы можете скомпилировать SVM perf с помощью команды:

 сделать 

Это создаст исполняемые файлы svm_perf_learn и svm_perf_classify. Если система не компилируется должным образом, проверьте этот FAQ.

Как использовать

SVM perf состоит из модуля обучения (svm_perf_learn) и модуля классификации (svm_perf_classify). Модуль классификации можно использовать для применения изученной модели к новым примерам. См. также приведенные ниже примеры использования svm_perf_learn и svm_perf_classify.

Использование очень похоже на SVM light . Вы называете это как

 svm_perf_learn -c 20.0 train.dat model.dat 

который обучает линейный SVM на обучающем наборе train.dat и выводит изученное правило в model.dat, используя параметр регуляризации C, установленный на
20. 0. Однако интерпретация параметра C в SVM perf
отличается от SVM light . В частности, C светлый = C perf *100/n,
где n — количество обучающих примеров. Отметим также, что значения C
приведенный в [Joachims, 2006], следует разделить на 100 для получения эквивалентных результатов, а значения эпсилон следует умножить на 100. Большинство других вариантов исходят из SVM 9.0099 структура и
SVM light и описаны там.
Только перечисленные ниже «специальные параметры приложения» относятся к
SVM перф .

Общие настройки:
         -? -> эта помощь
         -v [0..3] -> уровень детализации (по умолчанию 1)
         -y [0..3] -> уровень детализации для svm_light (по умолчанию 0)
Варианты обучения:
         -c float -> C: компромисс между ошибкой обучения
                        и маржа (по умолчанию 0,01)
         -p [1,2] -> L-норма для использования в слабых переменных.  Используйте 1 для L1-нормы,
                        используйте 2 для квадратных брюк. (по умолчанию 1)
         -o [1,2] -> Метод масштабирования для использования при потере.
                        1: медленное масштабирование
                        2: масштабирование поля
                        (по умолчанию 2)
         -l [0..] -> Функция потерь для использования.
                        0: ноль/одна потеря
                        ?: см. ниже в конкретных параметрах приложения
                        (по умолчанию 2)
Варианты оптимизации (см. [2][5]):
         -ш [0,..,9] -> выбор алгоритма структурного обучения (по умолчанию 9):
                        0: n-слабый алгоритм, описанный в [2]
                        1: алгоритм n-slack с эвристикой сжатия
                        2: 1-слабый алгоритм (основной), описанный в [5]
                        3: 1-слабый алгоритм (двойной), описанный в [5]
                        4: алгоритм 1-slack (двойной) с кешем ограничений [5]
                        9: пользовательский алгоритм в svm_struct_learn_custom. c
         -e float -> epsilon: разрешить этот допуск для завершения
                        критерий (по умолчанию 0,100000)
         -k [1..] -> количество новых ограничений для накопления перед
                        пересчет решения QP (по умолчанию 100)
                        (-w только 0 и 1)
         -f [5..] -> количество ограничений для кеша для каждого примера
                        (по умолчанию 5) (используется с -w 4)
         -b [1..100] -> процент тренировочного набора, для которого нужно обновить кеш
                        когда никакое эпсилон-нарушенное ограничение не может быть построено
                        из текущего кеша (по умолчанию 100%) (используется с -w 4)
Опции SVM-light для решения подзадач QP (см. [3]):
         -n [2..q] -> количество новых переменных, входящих в рабочий набор
                        в каждой итерации svm-light (по умолчанию n = q).
                        Установить размер n кэша svm-light для оценки ядра в МБ
                        (по умолчанию 40) (используется только для -w 1 с ядрами)
         -h [5. 2)
                        3: сигмовидный танх(s a*b + c)
                        4: пользовательское ядро ​​из kernel.h
         -d int -> параметр d в полиномиальном ядре
         -g float -> гамма-параметр в ядре rbf
         -s float -> параметр s в сигмовидном/полигональном ядре
         -r float -> параметр c в сигмовидном/полигональном ядре
         -u строка -> параметр определяемого пользователем ядра
Параметры вывода:
         -a строка -> записать все альфы в этот файл после обучения
                        (в том же порядке, что и в тренировочном наборе)
Опции для конкретного приложения:
         --b float -> значение функции L2-bias. Значение 0 означает, что нет
                        наличие функции смещения. (по умолчанию 1)
                        ВНИМАНИЕ: Это реализовано только для линейного ядра!
         --p [0..] -> доля положительных примеров для использования в качестве значения k для
                        Prec@k и Rec@k. 0 указывает на использование (0,5 * #pos) для
                        Prec@k и (2 * #pos) для Rec@k.  #pos - количество
                        положительные примеры в обучающей выборке. (по умолчанию 0)
         --t [0..] -> Использовать априорный выбор базы для разреженного ядра
                        обучение (нельзя использовать '-w 9'):
                        0: не использовать априорный выбор. (дефолт)
                        1: произвольная выборка базисных векторов из файла --f.
                        2: неполный Холецкий с использованием векторов из опции --f.
         --i [0..] -> Использовать алгоритм CPSP для разреженного обучения ядра
                        (необходимо использовать '-w 9') (см. [Joachims/Yu/09]):
                        0: не использовать алгоритм CPSP.
                        1: CPSP с использованием выбора подмножества для прообразов через
                           59/95 эвристика
                        2: CPSP с использованием поиска с фиксированной точкой (ядро RBF).
                           только) (по умолчанию)
                        4: CPSP с использованием поиска с фиксированной точкой с начальной точкой
                           через эвристику 59/95 (только ядро ​​RBF)
         --k [0. .] -> Указывает количество базовых функций для использования
                        для аппроксимации разреженного ядра (как --t, так и --i).
                        (по умолчанию 500)
         --r [0..] -> Количество повторных вычислений разреженного ядра
                        аппроксимацию и перезапустить оптимизатор. (по умолчанию 0)
         --s [0,1] -> Выбирает, используется ли эвристика сжатия в
                        пользовательские алгоритмы для линейного ядра и потери частоты ошибок.
                        (по умолчанию 1)
         --f строка -> Указывает файл, содержащий базовые функции для использования
                        для аппроксимации разреженного ядра. (обучение по умолчанию
                        файл)

С опцией -l можно выбрать следующие функции потерь:
     0 Ноль/одна потеря: 1, если вектор прогнозов содержит ошибку, 0 в противном случае.
     1 F1: 100 минус оценка F1 в процентах.
     2 Errorrate: процент ошибок в векторе предсказания.
     3 Безубыточность Prec/Rec: 100 минус PRBEP в процентах. 
     4 Prec@k: 100 минус точность при k в процентах.
     5 Rec@k: 100 минус отзыв при k в процентах.
    10 ROCArea: процент переставленных пар pos/neg (т. е. 100 — ROCArea).
 

SVM perf изучает беспристрастное правило линейной классификации (т.е.
знак правила (w*x) без явного порога). Используя параметр ‘—b’,
к каждому обучающему примеру добавляется искусственная функция с постоянным значением
который действует как порог. Оптимизируемая функция потерь выбирается с помощью
опция ‘-l’. Обратите внимание, что я никогда не тестировал Prec@k и Rec@k, так что берите эти
недоверчиво.

Для обучения нелинейных SVM с ядрами, SVM производительность сотрудников
алгоритм Cutting-Plane Subspace Pursuit (CPSP) [Joachims & Yu, 2009].
Алгоритм включается опцией ‘—i’. Позволяет ограничить количество
базисные функции (т.е. опорные векторы) с помощью опции ‘—k’. Чем больше ‘—k’,
тем лучше качество аппроксимации, но больше время обучения и тестирования.
Как правило, вы включаете CPSP с помощью ‘-i 2 -w 9 —b 0 —k 500’ и устанавливаете ядро
параметры через ‘-t’ так же, как в SVM свет . В настоящее время полный
Алгоритм CPSP реализован только для ядер RBF.

Другим вариантом обучения нелинейных SVM с ядрами является Nystrom.
методом (‘—i 0 —t 1 -w 3’) и неполной факторизацией Холецкого (‘—i 0
—t 2 -w 3’). Опять же, вы можете ограничить количество базовых функций с помощью —k
вариант. Чем больше ‘—k’, тем лучше качество аппроксимации, но тем дольше
время обучения и тестирования. Как правило, вы включаете Nystrom (и неполный
Cholesky соответственно) через ‘-i 0 —t 1 -w 3 —b 0 —k 500’ и установить параметры ядра через
‘-t’ как в SVM свет . Обычно базисными функциями являются
выборка из тренировочного набора, но можно дать файл с явным набором
базовая функция с использованием опции ‘—f’. Файл имеет тот же формат, что и
тренировочный/тестовый файл.

В принципе, вы также можете обучать нелинейные ядра в SVM perf
точно используя ‘—t 0 —i 0 -w 3’ и устанавливая ядро
опции как в SVM light . Однако это болезненно
медленный.

Формат обучающих и тестовых файлов такой же, как и для SVM light . Первые строки могут содержать комментарии и игнорируются, если они начинаются с #. Каждая из следующих строк представляет один обучающий пример и имеет следующий формат:

.

<строка> .=. <цель> <функция>:<значение> <функция>:<значение> … <функция>:<значение> # <информация>
<цель> .=. {+1,-1}
<функция> .=. <целое число>
<значение> .=. <поплавок>
<информация> .=. <строка>

Целевое значение и каждая из пар функция/значение разделены пробелом. Пары функция/значение ДОЛЖНЫ быть упорядочены по возрастанию номера функции. Функции с нулевым значением можно пропустить. Целевое значение обозначает класс примера через
+1 или -1. Так, например, строка

-1 1:0,43 3:0,12 9284:0,2 # abcdef

задает отрицательный пример (т. е. -1), для которого номер функции 1 имеет значение 0,43, номер функции 3 имеет значение 0,12, номер функции 9. 284 имеет значение 0,2, а все остальные функции имеют значение 0. Кроме того, вместе с вектором сохраняется строка abcdef, которая может служить способом предоставления дополнительной информации при добавлении определяемых пользователем ядер.

Результатом svm_perf_learn является модель, полученная из обучающих данных в
поезд.дат. Модель записывается в model.dat. Чтобы делать прогнозы на тестовых примерах, svm_perf_classify читает этот файл. svm_perf_classify вызывается следующим образом:

svm_perf_classify [опции] test.dat прогнозы model.dat

Для всех тестовых примеров в test.dat прогнозируемые классы записываются в
предсказания файлов. На каждый тестовый пример в прогнозах приходится одна строка в том же порядке, что и в
тест.дат.

Начало работы: пример проблемы

Вы найдете пример проблемы по адресу

.

https://download.joachims.org/svm_light/examples/example1.tar.gz

Загрузите этот файл в каталог svm_perf и распакуйте его с помощью

gunzip -c example1. tar.gz | tar xvf —

Это создаст подкаталог example1. В файле train.dat есть 2000 примеров и
600 в файле test.dat. Для запуска примера выполните команды:

svm_perf_learn -c 20 -l 2 —b 0 example1/train.dat example1/model
svm_perf_classify example1/test.dat example1/model example1/predictions

Точность набора тестов выводится на стандартный вывод. Эквивалент вызова SVM свет
который найдет одно и то же правило классификации (с точностью до числовой точности)
svm_learn -c 1 -b 0 пример1/train.dat пример1/модель.

Расширения и дополнения

  • Интерфейс Matlab: MEX-интерфейс MATLAB для SVM perf
    написано
    Оскар Луасес.

Отказ от ответственности

Это программное обеспечение бесплатно только для некоммерческого использования. Запрещается распространять без предварительного разрешения автора. Автор не несет ответственности за последствия использования этого программного обеспечения.

Известные проблемы

  • нет

История

V2.50 — 3.00
  • Включает реализацию алгоритма CPSP для обучения разреженных
    SVM с нелинейным ядром.
  • Включает методы Нистрома и неполного Холецкого для приблизительного обучения
    SVM ядра.
  • Исходный код для SVM perf V2.50.
V2.10 — 2.50
  • Включает новую реализацию алгоритма 1-slack в svm_struct_learn_custom.c
    для линейных ядер, оптимизирующих частоту ошибок, которые обходят API и таким образом избегают больших накладных расходов. Это существенно ускоряет обучение.
  • Включает версию V3.10 SVM struct .
  • Теперь записывает файлы линейных моделей в более компактном формате (т. е. сохраняет только весовые векторы, а не опорные векторы).
  • Исправлена ​​ошибка в ядре RBF.
  • Исправлены проблемы с точностью на 64-разрядных машинах AMD и Intel.
  • Исходный код для SVM perf V2.10.
V2.00 — 2.10
  • Теперь на основе V3.00 SVM struct . См. изменения, внесенные
    SVM структура V3.00.
  • Новый ИО
    подпрограммы, которые быстрее считывают большие данные и файлы моделей.
  • Исходный код для SVM perf
    Версия 2.00.
V1.00 — 2.00
  • Расширенный алгоритм для быстрого обучения линейных моделей и использования разреженных
    ядерное приближение.

Ссылки

[1] Т. Йоахимс, Обучение линейным SVM в линейном времени, Труды
Конференция ACM по обнаружению знаний и интеллектуальному анализу данных (KDD), 2006 г.
[Постскриптум]  [PDF]

[2] Т. Йоахимс, A Поддержка
Векторный метод для многомерных показателей эффективности
, Труды
Международная конференция по машинному обучению (ICML), 2005 г.