source
stringlengths 128
512
| target
stringlengths 100
1.22k
|
---|---|
By [1]}, we know that \(\bar{g}_d : V(p^3-q^2r) \rightarrow V(p^3-q^2r)\) is finite. Diller [2]} and Uehara [3]} studied surface automorphisms preserving the cuspidal cubic.
| По [1], мы знаем, что \(\bar{g}_d : V(p^3-q^2r) \rightarrow V(p^3-q^2r)\) является конечным. Диллер [2] и Уэхара [3] изучали автоморфизмы поверхностей, сохраняющие петлеподобную кубическую кривую. |
Mellet, Mischler and Mouhot [1]} showed that for a linearized Boltzmann equation with heavy-tailed invariant distribution, the rescaled distribution of the position converges to the solution of the fractional heat equation, i.e. the position process behaves like a stable process. Their work is closely related to [2]} although their proof is entirely analytic.
| Меллет, Мишлер и Мохо [1] показали, что для линеаризованного уравнения Больцмана с инвариантным распределением с тяжелыми хвостами, рескейлед распределение позиции сходится к решению фракционного уравнения теплопроводности, то есть процесс позиции ведет себя как устойчивый процесс. Их работа тесно связана с [2], хотя их доказательство полностью аналитическое. |
The function \(H(z)\) with \(\beta \) being a polynomial has frequently appeared in the study of
differential equations and complex dynamics; see, e.g., [1]}, [2]}, [3]}, [4]}, [5]}, [6]}. Below we describe the growth behavior of \(H(z)\) in the complex plane \(\mathbb {C}\) .
| Функция \(H(z)\) с \(\beta\) в виде полинома часто встречается в исследованиях дифференциальных уравнений и комплексной динамики; см., например, [1], [2], [3], [4], [5], [6]. Ниже мы описываем поведение роста \(H(z)\) в комплексной плоскости \(\mathbb{C}\). |
Recent efforts for joint hand-object pose estimation in camera
space [1]}, [2]}, [3]} have focused on
direct bottom-up regression of 3D poses.
We compare the performance of our fitting approach to recent learning-based methods for joint
hand-object reconstruction [3]}, [5]} in Table REF .
<TABLE> | Последние усилия для совместной оценки позы руки и объекта в пространстве камеры [1], [2], [3] сосредоточены на непосредственной регрессии 3D поз.
Мы сравниваем производительность нашего подхода к подгонке с недавними методами, основанными на обучении, для совместной реконструкции руки и объекта [3], [5] в таблице REF.
<TABLE> |
As a proof of its potential to unlock the end-to-end training of geometric pipelines, we train \(\nabla \) -RANSAC together with a recent detector-free feature matcher, LoFTR [1]}, with which we achieve improved accuracy.
We keep it as future work to find the best way, losses and network architecture, that maximizes performance when the entire pipeline is trained end-to-end.
| В качестве доказательства его потенциала для разблокировки полноценного обучения геометрических конвейеров мы обучаем \(\nabla \)-RANSAC вместе с недавним видоизмененным детектором, свободным от матчера признаков - LoFTR [1], с помощью которого достигается повышенная точность.
Мы оставляем это как будущую работу, чтобы найти лучший способ, потери и архитектуру сети, которые максимизируют производительность при полном обучении конвейера end-to-end. |
an intuitive fact which can also be seen as a consequence of, e.g., Federer's generalization of the Gauss-Bonnet formula,
which asserts that for any convex body the zeroth curvature measure of the entire convex body is unity,
coinciding with its Euler-Poincaré characteristic [1]};
in the case of a convex polytope \(\operatorname{conv}(V)\) ,
the zeroth curvature measure vanishes except at the vertices of the body, and assigns mass \(f_i\) to \(v_i\) .
| интуитивный факт, который также можно рассматривать как следствие, например, обобщения формулы Гаусса-Бонне для Федерера,
которая утверждает, что для любого выпуклого тела нулевая мера кривизны всего выпуклого тела равна единице,
совпадая с его характеристикой Эйлера-Пуансаре [1]};
в случае выпуклого политопа \(\operatorname{conv}(V)\) ,
нулевая мера кривизны обращается в ноль за исключением вершин тела и присваивает массу \(f_i\) вершине \(v_i\) . |
is the linearized collision operator of the BGK equation for Couette flow between two parallel plates [1]}. Then multiplying Eq. (REF ) by \(2v_1v_2\) and integrating the resulting equation with respect to the molecular velocity \(\textbf {v}\) , we obtain
\(\frac{\partial U_1}{\partial x_2}=-\delta {}P_{12}+\underbrace{\int {}2v_1v_2(L-L_{BGK})d\textbf {v}-\frac{\partial }{\partial x_2}\int (2v_2^2-1)v_1fd\textbf {v}}_{\text{High-order terms}}.\)
| линейзированный оператор столкновений уравнения BGK для потока Куэтта между двумя параллельными пластинами [1]. Затем умножаем уравнение (REF ) на \(2v_1v_2\) и интегрируем полученное уравнение по отношению к молекулярной скорости \(\textbf {v}\), получаем
\(\frac{\partial U_1}{\partial x_2}=-\delta {}P_{12}+\underbrace{\int {}2v_1v_2(L-L_{BGK})d\textbf {v}-\frac{\partial }{\partial x_2}\int (2v_2^2-1)v_1fd\textbf {v}}_{\text{Высшие слагаемые}}.\) |
Although not explicitly stated in [1]}, the proof there allows us to conclude that we have \(d_r\le D\) , where \(D\) is the degree of unipotency of \(A\) . Furthermore, if \((A-I)^2=0\) , as is the case when \(T\) is 2-step affine, then we can take \(d_r\le 2\) for each \(r\) . For convenience, we may also assume that \(d_r=2\) for each \(r\) , and therefore \(r=1\) . With these specializations, the system given by \(S\) above is a standard 2-step Weyl system.
| Хотя это не явно указано в [1], доказательство там позволяет нам заключить, что у нас есть \(d_r\le D\), где \(D\) - степень униспективности \(A\). Более того, если \((A-I)^2=0\), что имеет место, когда \(T\) - двухшаговый аффинный, то мы можем взять \(d_r\le 2\) для каждого \(r\). Для удобства мы также можем предположить, что \(d_r=2\) для каждого \(r\), и, следовательно, \(r=1\). При этих специализациях система, заданная \(S\) выше, является стандартной двухшаговой системой Вейля. |
which has been used [1]}.
For the standard values for water, \(\varepsilon = 80\) , \(\varepsilon _{\infty } = 4\) ,
we have \(u_P(0)\varepsilon _0 = 5 \cdot 10^{-4}\) . The hatted parameters can then be computed from the bare lengths by multiplication with a factor \(\approx 0.038\) .
| который был использован [1]}.
Для стандартных значений для воды, \(\varepsilon = 80\), \(\varepsilon _{\infty } = 4\),
у нас есть \(u_P(0)\varepsilon _0 = 5 \cdot 10^{-4}\). Затем параметры с шляпками можно вычислить, умножив незамаскированные длины на коэффициент \(\approx 0.038\). |
Word2vec is a popular Neural Network embedding model described in [1]}.
It aims to map the vocabulary of a dataset into a multidimensional vector space in which the distance between the projections corresponds to the semantic similarity between them [2]}.
| Word2vec - популярная модель векторного представления нейронных сетей, описанная в [1].
Она стремится отобразить словарь набора данных в многомерное векторное пространство, в котором расстояние между проекциями соответствует семантической схожести между ними [2]. |
Then \((A, +, \circ )\) gives a brace which corresponds to this pre-Lie algebra. This formula gives the same brace as described in [1]}.
| Затем \((A, +, \circ)\) даёт скобку, которая соответствует этой пре-Ли алгебре. Эта формула дает ту же самую скобку, как описано в [1]. |
Thus, the channel matrix[1]} from the RIS to the BS is given by [1]}
\({\bf H}=\sqrt{\rho }[{\bf h}_{0},{\bf h}_{1},...,{\bf h}_{N_{y,z}-1}],\)
| Таким образом, матрица канала от RIS к BS задается как
\({\bf H} = \sqrt{\rho}[{\bf h}_{0},{\bf h}_{1},...,{\bf h}_{N_{y,z}-1}]\), где \(\rho\) - коэффициент,
а \({\bf h}_{0},{\bf h}_{1},...,{\bf h}_{N_{y,z}-1}\) - векторы канала. |
While strong \(\epsilon \) -DP is ideal, utility may demand compromise. Precedent exists for weaker privacy, with the
definition of (\(\epsilon ,\delta \) )-DP where with small probability \(\delta \) , \(\epsilon \) -DP is allowed to fail. Another relaxed notion is (\(\epsilon ,\gamma \) )-Random Differential Privacy (RDP) [1]}, where on all but a small \(\gamma \) -proportion of unlikely database pairs, strong \(\epsilon \) -DP holds.
| В то время как сильная (\(\epsilon \)-DP) - дифференциальная приватность является идеальной, требования к полезности могут потребовать компромисса. Существует прецедент для более слабой приватности, с определением (\(\epsilon ,\delta \) )-DP, где с малой вероятностью \(\delta \), \(\epsilon \)-DP может не выполняться. Другое более слабое понятие - (\(\epsilon ,\gamma \) )-Произвольная дифференциальная приватность (RDP) [1], где на всех, кроме небольшой доли \(\gamma \)-пар необычных баз данных, сильная \(\epsilon \)-DP сохраняется. |
Typically, the prediction errors are defined as the difference between the observed output \(y_{k+1}\) and a numerical prediction \(\hat{y}_{k+1}\) based on previous data [1]}:
\(e_{k+1} = y_{k+1} - \hat{y}_{k+1} \, .\)
| Обычно ошибки предсказания определяются как разница между наблюдаемым выходом \(y_{k+1}\) и численным предсказанием \(\hat{y}_{k+1}\) на основе предыдущих данных [1]:
\(e_{k+1} = y_{k+1} - \hat{y}_{k+1}\). |
Trajectory optimization in nonlinear systems is an active research area in optimal control and reinforcement learning [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}, [8]}. The aim is to find a state-control sequence that globally or locally minimizes a given performance index such as a cost or a reward function. Examples of applications include trajectory planning in autonomous vehicles, robotics, industrial automation systems, and gaming [9]}, [10]}, [11]}, [12]}, [13]}, [14]}.
| Оптимизация траектории в нелинейных системах является активной областью исследования в области оптимального управления и обучения с подкреплением [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}, [8]}. Целью является поиск последовательности состояний и управления, которая глобально или локально минимизирует заданный индекс производительности, такой как стоимость или функция вознаграждения. Примеры приложений включают планирование траектории в автономных транспортных средствах, робототехнике, промышленных системах автоматизации и играх [9]}, [10]}, [11]}, [12]}, [13]}, [14]}. |
In the following, convention as presented in Ref. [1]} (later referred to as PPFRead with PPF standing for Piecewise Polytropic Fits) is used: the rest-mass density \(\rho \) is directly connected to the baryonic density \(n\) via the baryon mass \(m_B =939\) MeV/c\(^2\) (\(\rho =n\,m_B\) ). The energy density \(\epsilon \) is calculated by using the first law of thermodynamics in the zero-temperature limit:
\( d\bigg (\frac{\epsilon }{\rho } \bigg ) = - P d\bigg (\frac{1}{\rho }\bigg ) \;.\)
| В следующем, используется обозначение, представленное в работе Ref. [1] (в дальнейшем называемое PPFRead с PPF, означающим Piecewise Polytropic Fits): плотность покоя \(\rho\) прямо связана с барионной плотностью \(n\) через барионную массу \(m_B =939\) MeV/c\(^2\) (\(\rho =n\,m_B\)). Плотность энергии \(\epsilon\) рассчитывается с использованием первого закона термодинамики в пределе нулевой температуры:
\( d\bigg (\frac{\epsilon }{\rho } \bigg ) = - P d\bigg (\frac{1}{\rho }\bigg ) \;.\) |
The following identity, to be called as Varadhan's integral lemma according to [1]}, was derived in [2]} from (REF )
\(\lim _{\epsilon \rightarrow 0}\epsilon \ln \mathbb {E}^{\epsilon }\exp \left\lbrace \epsilon ^{-1}F(\xi ^{\epsilon })\right\rbrace =\max _{x\in \mathbb {X}}[F(x)-S(x)]\)
| Нижеприведенная тождественность, будет названа леммой интеграла Варадана согласно [1], была получена в [2] из (ССЫЛКА):
\(\lim _{\epsilon \rightarrow 0}\epsilon \ln \mathbb {E}^{\epsilon }\exp \left\lbrace \epsilon ^{-1}F(\xi ^{\epsilon })\right\rbrace =\max _{x\in \mathbb {X}}[F(x)-S(x)]\) |
Machine learning [1]} aims to extract a learner (decision model) from a pre-specified learning machine based on a set of training observations. It generally includes the following ingredients.
| Машинное обучение [1] стремится извлечь обучающуюся (модель принятия решений) из предварительно заданной обучающей машины на основе набора обучающих наблюдений. В общем случае оно включает следующие компоненты. |
In order to implement the unitary operator \(U=\exp (i \pi H)\) and its powers in the phase estimation algorithm, use the algorithm of [1]} that efficiently realises Hamiltonian simulation with exponentially small error. Fix the error of the Hamiltonian simulation so that the error made during the phase estimation algorithm is at most \(1/h(n)\) , where \(h\in \mbox{{\rm poly}}\) .
| Для реализации унитарного оператора \(U=\exp (i \pi H)\) и его степеней в алгоритме оценки фазы используйте алгоритм из [1], который эффективно осуществляет симуляцию гамильтониана с экспоненциально малой погрешностью. Зафиксируйте погрешность симуляции гамильтониана так, чтобы погрешность, возникающая во время алгоритма оценки фазы, была не более \(1/h(n)\), где \(h\in \mbox{{\rm poly}}\). |
where \(\Omega _n = \pi n/T\) . According to the approach of the spectral measurement, one measures the components \(q_n\) with the errors \(\Delta a_n\) [1]}. The appropriate choice of a weight functional for such a measurement is [2]}, [3]}
\(w_{a} [q] = \exp \left\lbrace - \sum \limits _{n=1}^{\infty } \frac{(q_n - a_n)^2}{\Delta a_n^2} \right\rbrace \)
| где \(\Omega _n = \pi n/T\) . Согласно подходу спектрального измерения, производят измерение компонент \(q_n\) с ошибками \(\Delta a_n\) [1]}. Подходящим выбором весовой функционал для такого измерения является [2]}, [3]}
\(w_{a} [q] = \exp \left\lbrace - \sum \limits _{n=1}^{\infty } \frac{(q_n - a_n)^2}{\Delta a_n^2} \right\rbrace \) |
For completeness we will first prove the folklore statement that says that the tensor product of two Koszul algebras is a Koszul algebra. This is proven for connected \(\mathbb {K}\) -algebras in [1]}.
| Для полноты сначала докажем народное утверждение, которое гласит, что тензорное произведение двух алгебр Кошиля является алгеброй Кошиля. Это доказано для связных \(\mathbb {K}\)-алгебр в [1]. |
The vanilla GLCIC model use the Binary Cross Entropy (BCE) loss on discriminator networks.
However, empirical findings indicate that RaLSGAN loss helps to generate more textually clean and sharper lines [1]}, which is a desirable characteristic for road maps.
<FIGURE> | Модель ванильного GLCIC использует функцию потерь бинарной перекрестной энтропии (BCE) на дискриминаторных сетях. Однако эмпирические результаты показывают, что потеря RaLSGAN помогает генерировать более чистый текст и более четкие линии [1], что является желательной характеристикой для карт дорог. |
The parallel-counter (PC) encoding [1]} decomposes \(\le _k(x_1,x_2,\ldots ,x_n)\) into the following:
aaa āaa āaa āaa āaa āaa āaa āaa āaa āaa āaa āaa āaa āaa (PC-1) \(t\ =\ \)sum\((x_1,x_2,\ldots ,x_n)\)
| Параллельное кодирование (PC) счетчика [1] разделяет \(\le _k(x_1,x_2,\ldots ,x_n)\) на следующие части:
aaa āaa āaa āaa āaa āaa āaa āaa āaa āaa āaa āaa āaa āaa (PC-1) \(t\ =\ \)sum\((x_1,x_2,\ldots ,x_n)\) |
Instead of directly processing in 3D, multiple view techniques
[1]}, [2]}, [3]}, [4]}, [5]} focused on
transferring 2D segmentation to 3D. Other methods further exploit object cues
such as spatial context [6]}.
Our method is based on multi-view segmentation as such techniques scale better to
large-scale scenes. Concurrently, we also aim to achieve real-time performance
with progressive scene reconstruction. We would focus our discussion to the
most relevant interactive and real-time techniques.
| Вместо прямой обработки в 3D, многократно просматриваемые техники [1], [2], [3], [4], [5] сосредоточены на переводе 2D-сегментации в 3D. Другие методы дополнительно используют объектные признаки, такие как пространственный контекст [6].
Наш метод основан на многократной сегментации сцены, так как такие техники масштабируются лучше для больших сцен. Параллельно мы также стремимся достичь работы в реальном времени с прогрессивным восстановлением сцены. Мы сосредоточим наше обсуждение на самых актуальных интерактивных и работающих в режиме реального времени техниках. |
Remark 2.3 Note that in [1]} the theorem is only stated for sets \(S\) having finite complement, but the assumption is not needed in the proof. An alternative proof was sketched in [2]}.
| Примечание 2.3 Обратите внимание, что в [1] теорема утверждается только для множеств \(S\) с конечным дополнением, но это предположение не требуется для доказательства. Альтернативное доказательство было набросано в [2]. |
Here, we use some synthetic datasets produced by typical examples to compare the performance of the NODES and the NDDEs. In [1]}, it is proved that the NODEs cannot represent the function \(g:\mathbb {R}^d \rightarrow \mathbb {R}\) , defined by
\(g({\mathbf {x}}) = \left\lbrace \begin{array}{ll}1, &\mbox{if}~\Vert {\mathbf {x}}\Vert \le r_1,\\-1, &\mbox{if}~r_2\le \Vert {\mathbf {x}}\Vert \le r_3,\end{array}\right.\)
| Здесь мы используем некоторые синтетические наборы данных, созданные на основе типичных примеров, для сравнения производительности NODES и NDDEs. В [1] доказано, что NODEs не могут представлять функцию \(g:\mathbb {R}^d \rightarrow \mathbb {R}\), определенную как
\(g({\mathbf {x}}) = \left\lbrace \begin{array}{ll}1, &\mbox{если}~\Vert {\mathbf {x}}\Vert \le r_1,\\-1, &\mbox{если}~r_2\le \Vert {\mathbf {x}}\Vert \le r_3,\end{array}\right.\) |
where \({\tilde{F}}^{\mu \nu }=\frac{1}{2}\epsilon ^{\mu \nu \rho \sigma }F_{\rho \sigma }\) is dual field tensor, \(\sigma _{\mathrm {R,L}}=\big (\sigma /Q_{\mathrm {R,L}}\big )\) , and \(C_{R,L}\) are the corresponding right- and left-handed anomaly coefficients
[1]}, [2]}, [3]}, [4]}. The right- and left-handed anomalous equation (REF ) can be written as
\(\partial _{t}j^{0}_\mathrm {(R,L)}+ \frac{1}{R}\vec{\nabla }.\vec{j}_{(R,L)}+ 3Hj^{0}_\mathrm {(R,L)} =C_\mathrm {R,L} E_{\mu }B^{\mu },\)
| где \({\tilde{F}}^{\mu \nu }=\frac{1}{2}\epsilon ^{\mu \nu \rho \sigma }F_{\rho \sigma }\) является двойным тензором поля, \(\sigma _{\mathrm {R,L}}=\big (\sigma /Q_{\mathrm {R,L}}\big )\), а \(C_{R,L}\) - соответствующие коэффициенты аномалий правой и левой руки [1], [2], [3], [4]. Уравнение аномальной правой и левой руки (REF) может быть записано в виде \(\partial _{t}j^{0}_\mathrm {(R,L)}+ \frac{1}{R}\vec{\nabla }.\vec{j}_{(R,L)}+ 3Hj^{0}_\mathrm {(R,L)} =C_\mathrm {R,L} E_{\mu }B^{\mu }\). |
Most of the existing semi-supervised semantic segmentation techniques either use consistency regularization strategies [1]}, [2]}, [3]}, [4]}, [5]} or generative model to augment pseudo-labels to existing labeled data pool [6]}, [7]} or some combination of the two [8]}.
| Большинство существующих полу-надзорных техник семантической сегментации либо используют стратегии регуляризации согласованности [1], [2], [3], [4], [5], либо генеративную модель для увеличения псевдо-меток в уже существующем пуле помеченных данных [6], [7], или некоторую комбинацию обоих подходов [8]. |
For images with only image-level annotations, we use the MIL loss used in [1]}.
\(\begin{split}L^k_i(\emph {P}) = -&y^k_i\log (1-\prod _{j} (1-p^k_{ij}))\\-&(1-y^k_i)\log (\prod _{j} (1-p^k_{ij}))\end{split}\)
| Для изображений с только общими аннотациями изображения мы используем функцию потерь MIL, использованную в [1].
\(\begin{split}L^k_i(\emph{P}) = -&y^k_i\log(1-\prod_{j}(1-p^k_{ij}))\\-&(1-y^k_i)\log(\prod_{j}(1-p^k_{ij}))\end{split}\) |
Vehicle Dataset.The Vehicle dataset was made publicly available by the original authors as a research dataset [1]} and license information was unavailable. It has been subsequently used in many work (e.g. [2]}).
| Набор данных о транспортных средствах. Набор данных о транспортных средствах был сделан открытым и доступным для исследования исходными авторами [1], и информация о лицензии была недоступна. Впоследствии он был использован во многих работах (например, [2]). |
The Learners:
The learners are uncertainty-aware.
Given training set \(\mathcal {D}\) , they estimate high confidence bounds on what Markov games (\(P\) and \(R\) ) are plausible.
Conversely, the attacker must ensure its attacks work on any one of these plausible Markov games.
This makes the attacks strong; in fact one can show such attacks work on state-of-the-art learners such as pessimistic offline MARL algorithms [1]}, [2]}; see Appendix for details.
| Обучающиеся:
Обучающиеся обладают осведомленностью о неопределенности.
Для данного набора данных обучающиеся оценивают высокие границы уверенности в отношении того, какие Марковские игры (\(P\) и \(R\) ) являются правдоподобными.
Соответственно, злоумышленник должен убедиться, что его атаки срабатывают в любой из этих правдоподобных Марковских игр.
Это делает атаки мощными; на самом деле можно показать, что такие атаки срабатывают на передовых моделях обучения, таких как пессимистические оффлайн MARL алгоритмы [1]}, [2]}; см. Приложение для подробностей. |
Related Works. The community structure of a graph emerges when the number of nodes is large. As such, our study is closely related to works which study the convergence properties of graph filters with very large graphs. For instance, [1]} studied the generalization of graph signal processing (GSP) [2]} to graphons, [3]}, [4]} analyzed the stability of GCNs with an infinite number of nodes/data. We remark that our Corollary REF can be viewed as an extension of [4]} to the unnormalized Laplacian as GSO.
| Связанные работы. Структура сообщества графа становится заметной, когда количество узлов большое. Таким образом, наше исследование тесно связано с работами, которые изучают свойства сходимости графовых фильтров с очень большими графами. Например, [1] изучал обобщение обработки графовых сигналов (GSP) [2] на основе графонов, [3], [4] анализировали устойчивость GCN с бесконечным количеством узлов/данных. Мы отмечаем, что наш следствие REF можно рассматривать как расширение [4] до ненормализованного лапласиана в качестве GSO. |
If the variables \(\psi _{i_1},\dots ,\psi _{i_n}\) are fields defined locally in continuous real space at \(x_1,\dots ,x_n\) , it may be more convenient to analyze Eq. (REF ) in the wave-vector space. To this end we introduced a novel multi-point Wigner function [1]}:
\(W^{\rm c}_{n}(x,q_1,\dots ,q_n)=\left[\prod _{i=1}^n d^3y_ie^{-iq_i\cdot y_i}\right]\delta ^{(3)}\left(\frac{1}{n}\sum _{i=1}^ny_i\right)G^{\rm c}_{n}(x_1,\dots ,x_n)\,,\)
| Если переменные \(\psi _{i_1},\dots ,\psi _{i_n}\) - это поля, определенные локально в непрерывном действительном пространстве в точках \(x_1,\dots ,x_n\), то более удобно анализировать уравнение (ссылка) в волновом пространстве. В этом случае мы вводим новую многоточечную функцию Вигнера [1]:
\(W^{\rm c}_{n}(x,q_1,\dots ,q_n)=\left[\prod _{i=1}^n d^3y_ie^{-iq_i\cdot y_i}\right]\delta ^{(3)}\left(\frac{1}{n}\sum _{i=1}^ny_i\right)G^{\rm c}_{n}(x_1,\dots ,x_n)\,,\) |
To the best of my knowledge positively folded galleries were introduced by Gaussent and Littelmann in [1]} as combinatorial analogs of folded paths which appeared first in Littelmann's path model [2]}, [3]}.
| На сколько мне известно, положительно свернутые галереи были представлены Гауссеном и Литтельманом в [1] в качестве комбинаторных аналогов свернутых путей, которые впервые появились в модели пути Литтельманна [2], [3]. |
OOD detection without fine-tuning.
Maximum softmax probability [1]} and it variants like ODIN [2]}, GODIN [3]}, POOD [4]} and Energy [5]} have been used for OOD detction. Beside the final outputs, intermediate activation is also used like Gram [6]}, Mahalanobis [7]}, [8]}.
| Обнаружение необычных объектов без настройки тонкой настройки. Максимальная вероятность softmax [1] и ее варианты, такие как ODIN [2], GODIN [3], POOD [4] и Energy [5], используются для обнаружения необычных объектов. Кроме конечных результатов, также используется промежуточная активация, такая как Грамм [6], Махаланобис [7], [8]. |
For the first two equalities see [1]}, while the third and fourth equalities are true because
the spherical derivative and the spherical value of a slice function are slice functions induced by stem functions with zero \(\sqrt{-1}\) -part (see Definition REF ).
| Для первых двух равенств смотрите [1], в то время как третье и четвертое равенства верны, потому что сферическая производная и сферическое значение функции состоят из фактических функций, порожденных ветвями с нулевой частью \(\sqrt{-1}\) (см. Определение REF). |
TDA on functions can be used to construct feature representations for time series analysis, and
persistence landscapes
are useful as topological representations for similarity/dissimilarity analysis on time series. In the literature, different representations of time series have been used, such as the weighted Fourier transform in [1]} or the Walsh-Fourier transform in [2]}. We describe these situations in the following sections.
| TDA на функциях может быть использована для построения признаковых представлений для анализа временных рядов, и
постоянные ландшафты
полезны в качестве топологических представлений для анализа сходства/несходства временных рядов. В литературе использовались разные представления временных рядов, такие как взвешенное преобразование Фурье в [1] или уолш-фурье преобразование в [2]. Описываем эти ситуации в следующих разделах. |
an \(\mathbb {R}^d\) -valued process \(W\) is a \(d\) -dimensional fBm if its components are independent 1-dimensional fBms.
All the results we are going to recall here are classical and can be found in [1]}, [2]}.
| процесс \(W\), принимающий значения в пространстве \(\mathbb{R}^d\), является \(d\)-мерным fBm, если его компоненты являются независимыми одномерными fBm.
Все результаты, которые мы собираемся привести здесь, являются классическими и могут быть найдены в [1], [2]. |
In this work, we take a different path compared to the tracking-by-detection paradigm to video-instance and video-panoptic segmentation [1]}, [2]}, [3]}, [4]}. We pose 4D panoptic segmentation as two joint processes. The first one is responsible for point grouping in the 4D continuum using clustering, while the second assigns a semantic interpretation to each point.
| В данной работе мы выбираем другой подход по сравнению с парадигмой отслеживания-по-обнаружению для сегментации видео-инстанса и видео-паноптики [1]}, [2]}, [3]}, [4]}. Мы представляем 4D паноптическую сегментацию как два совместных процесса. Первый процесс отвечает за группировку точек в 4D пространстве путем кластеризации, в то время как второй процесс назначает семантическую интерпретацию каждой точке. |
The proof relies on a fusion property which holds in our iteration. We will use the formulation of this property as it is stated and proved in [1]}:
| Доказательство основано на свойстве слияния, которое присутствует в нашей итерации. Мы будем использовать формулировку этого свойства так, как оно указано и доказано в [1]. |
from Result 3 it is 2-CGE for \(a_i\ne 0\) , \(i=1, \cdots , n+1\) , where \(|1_i\rangle \) denotes the \(i\) -excitation defined by \(|1_i\rangle =|0\rangle ^{\otimes i-1}|1\rangle |0\rangle ^{\otimes n-i}\) . This can be extended for \(n\) -qudit Dicke state with \(s\) excitations [1]} given by
\(|D_{s,n}\rangle =\frac{1}{\sqrt{L_s}}\sum _{i_1+\cdots {}+i_n=s}|i_1 \cdots {}i_n\rangle _{A_1\cdots {}A_n}\)
| из Результат 3 следует, что для \(a_i\ne 0\), \(i=1, \cdots , n+1\), значение 2-CGE равно, где \(|1_i\rangle \) обозначает \(i\)-е возбуждение, определенное как \(|1_i\rangle =|0\rangle ^{\otimes i-1}|1\rangle |0\rangle ^{\otimes n-i}\). Это можно расширить для \(n\)-квдитового состояния Дикке с \(s\) возбуждениями, представленного следующим образом:
\(|D_{s,n}\rangle =\frac{1}{\sqrt{L_s}}\sum _{i_1+\cdots {}+i_n=s}|i_1 \cdots {}i_n\rangle _{A_1\cdots {}A_n}\) |
Figure 3 shows that NRF data [1]}, [2]} do not
give \(I^{\pi }=1^+\) states at \(E < \) 2.39 MeV. As discussed in Refs.
[3]}, this may be caused by troubles of traditional
NRF experiments to separate transitions in this energy range from a
sizable background. The early data for \(^{160 }\) Dy [1]}
give \(1^+\) states only for \(E >\) 2.8 MeV,
though the level list in database [5]} suggests many
candidates for \(1^+\) states at lower excitation energies.
| На рисунке 3 показано, что данные NRF [1]}], [2]} не показывают состояний \(I^{\pi }=1^+\) при \(E <\) 2,39 МэВ. Как обсуждалось в работах [3]}, это может быть вызвано проблемами традиционных экспериментов по NRF в разделении переходов в этом диапазоне энергий от значительного фона. Первоначальные данные для \(^{160 }\)Dy [1]} показывают состояния \(1^+\) только для \(E >\) 2,8 МэВ, хотя список уровней в базе данных [5]} предлагает много кандидатов на состояния \(1^+\) при более низких возбуждающих энергиях. |
One of the standard approach to distinguish the different phases is based on the notion of level statistics of the unitary operator \(\hat{U}\) [1]}, [2]}.
Let \(|\phi _n\rangle \) be an eigenstate of the Floquet Hamiltonian with eigenvalue \(\epsilon _n\) , i.e. \(\hat{H}_F|\phi _n\rangle = \epsilon _n|\phi _n\rangle \) , it follows that
\(\hat{U}=\sum _n e^{i\theta _n}|\phi _n\rangle \langle \phi _n|,\)
| Один из стандартных подходов для различения различных фаз основан на понятии уровневой статистики унитарного оператора \(\hat{U}\) [1], [2].
Пусть \(|\phi _n\rangle\) является собственным состоянием флокетовского гамильтониана с собственным значением \(\epsilon _n\), то есть \(\hat{H}_F|\phi _n\rangle = \epsilon _n|\phi _n\rangle\), отсюда следует, что
\(\hat{U}=\sum _n e^{i\theta _n}|\phi _n\rangle \langle \phi _n|\) |
Subsequently proposed techniques for face synthesis use deep learning. They generally use GAN for facial attribute translation [1]}, [2]}, [3]}, [4]}, for identity-attribute combination [5]}, for identified characteristics removal [6]}, and for interactive semantic manipulation [7]}, [8]}. Facial disentangled features are being interpreted in different latent spaces, resulting in more precise control of attribute manipulation in face editing [3]}, [4]}, [11]}, [12]}.
| В последующих разработках предлагаются методы синтеза лица с использованием глубокого обучения. Они обычно применяют GAN для трансляции лицевых признаков [1], [2], [3], [4], для комбинации идентичности и атрибутов [5], для удаления определенных характеристик [6] и для интерактивного семантического управления [7], [8]. Лицевые разделенные признаки интерпретируются в различных скрытых пространствах, что позволяет более точно контролировать манипуляцию атрибутами при редактировании лица [3], [4], [11], [12]. |
Lemma 9 (Theorem 2 in [1]})
Assume that \({\mathbf {P}}\) is doubly stochastic.
The limit matrix \({\mathbf {P}}^t\) is doubly stochastic and correspond to a uniform steady distribution for all \(s\) , i.e.,
\(\lim _{t\rightarrow \infty }{\mathbf {P}}^t=\frac{1}{N}11^T.\)
| Лемма 9 (Теорема 2 в [1])
Предположим, что \({\mathbf {P}}\) является дважды стохастической.
Предел матрицы \({\mathbf {P}}^t\) также является дважды стохастической и соответствует равномерному установившемуся распределению для всех \(s\), то есть
\(\lim _{t\rightarrow \infty }{\mathbf {P}}^t=\frac{1}{N}11^T.\) |
Many of the proposed music rhythmic analysis approaches [1]}, [2]}, [3]} perform in an offline fashion while others [4]}, [5]}, [6]} are capable of extracting music rhythmic features causally and even in real-time.
| Многие предложенные подходы к анализу ритма в музыке [1], [2], [3] выполняются оффлайн, в то время как другие [4], [5], [6] способны извлекать ритмические характеристики музыки каузально и даже в реальном времени. |
For \(Q\) the one loop quiver, and framing vector \(\mathbf {f}=1\) , we have \(\operatorname{\mathcal {A}}_{\tilde{Q},\tilde{W},1}\cong \operatorname{\mathbf {H}}_{\mathbb {C}^*}\cong \mathbb {Q}[x]\) . One shows as in [1]} that for \(1_1\) the copy of \(1\in \mathbb {Q}[x]\cong \operatorname{\mathcal {A}}_{\tilde{Q},\tilde{W},1}\) we have
\(1\star =\mathfrak {p}_1\)
| Для \(Q\) однопетлевого свитера и вектора крепления \(\mathbf {f}=1\) имеем \(\operatorname{\mathcal {A}}_{\tilde{Q},\tilde{W},1}\cong \operatorname{\mathbf {H}}_{\mathbb {C}^*}\cong \mathbb {Q}[x]\). Как показано в [1], для \(1_1\) копии \(1\in \mathbb {Q}[x]\cong \operatorname{\mathcal {A}}_{\tilde{Q},\tilde{W},1}\) у нас есть
\(1\star =\mathfrak {p}_1\) |
In this contribution, we concentrate on convolutive BSS methods based on ICA, as a representative of the last mentioned group of algorithms. The first works on ICA date back over thirty years, e.g., [1]}, and cover a broad variety of application scenarios including medical imaging, fMRI, EEG, telecommunications or stockmarket prediction [2]}.
| В данном исследовании мы сосредоточимся на методах сверточного BSS, основанных на ICA, как представителях последней группы алгоритмов. Первые работы по ICA были опубликованы более тридцати лет назад, например [1]], и охватывают широкий спектр приложений, включая медицинское изображение, фМРТ, ЭЭГ, телекоммуникации или прогнозирование фондового рынка [2]]. |
More appealingly, CLS achieves on par or better performance than the recent adversarial training [1]}, [2]}, self-training [3]}, dropout [4]}, and moment matching methods [5]}, [6]}, demonstrating the potential of adversarial learning in UDA. The more powerful backbones have also been applied and shown better results [7]}, [8]}. The CLS with the ResNet152 backbone outperforms both CLS with the ResNet 101 backbone and [7]}, [8]} significantly.
| Более привлекательно, CLS достигает такой же или лучшей производительности, чем недавние методы адверсарного обучения [1] [2], самообучение [3], отсев [4] и методы сопоставления моментов [5] [6], что демонстрирует потенциал адверсарного обучения в UDA. Более мощные модели также были применены и показали лучшие результаты [7] [8]. CLS с базовой моделью ResNet152 превосходит как CLS с базовой моделью ResNet101, так и [7] [8] значительно. |
The Moran process [1]} differs in that at each step only one member of the current generation is sampled with probability proportional to their fitness and replicated, and one is removed at random. Hence the generations (every \(N\) replications) for the Moran process are overlapping. This results in a faster adaptation rate, as offspring in a given generation may descend from other high-fitness offspring within that same generation.
| Процесс Морана отличается тем, что на каждом шаге только один член текущего поколения отбирается с вероятностью, пропорциональной его приспособленности, и копируется, а один удаляется случайным образом. Таким образом, поколения (каждые \(N\) операций копирования) в процессе Морана перекрываются. Это приводит к более быстрой скорости адаптации, поскольку потомки в данном поколении могут происходить от других потомков с высокой приспособленностью в пределах этого же поколения. |
Similar to [1]} Talmor2019, we convert the datasets into the same format for comparability and to suit the task definition of extractive MRC. For HotpotQA we concatenate multiple passages into a single context and for DROP and NewsQA we only include examples where the question is answerable and the answer is a continuous span in the paragraph and refer to them as DROP' and NewsQA', respectively.
| Аналогично {1} Talmor2019, мы преобразуем наборы данных в одинаковый формат для сравнимости и соответствия определению задачи извлечения MRC. Для HotpotQA мы объединяем несколько отрывков в один контекст, а для DROP и NewsQA мы включаем только примеры, где вопрос имеет ответ и ответ является непрерывным отрывком в параграфе и обозначаем их как DROP' и NewsQA' соответственно. |
The use of self-supervised learning (SSL) for learning representations from unlabeled speech has received much attention over the last few years [1]}, [2]}, [3]}, [4]}, [5]}.
However, much of this research assumes that a large amount of unlabeled audio data is available, which is not always the case for rare languages or for specialized domains.
The performance of SSL for speech with limited unlabeled data has been less studied.
| Использование самообучения (SSL) для изучения представлений из непомеченных данных речи привлекло много внимания в последние несколько лет [1]}, [2]}, [3]}, [4]}, [5]}.
Однако большинство исследований предполагает наличие большого количества непомеченных звуковых данных, что не всегда возможно для редких языков или специализированных областей.
Производительность SSL для речи с ограниченными непомеченными данными меньше изучалась. |
Recent studies have repeatedly shown similarities between brain activity and pretrained supervised neural networks (e.g. [1]}, [2]}, [3]}, [4]}, [5]}). The present results further show that updating a model after each stimulus presentations via self-supervised learning makes this model more "brain-like".
| Последние исследования многократно показали сходство между активностью мозга и предварительно обученными нейронными сетями с учителем (например, [1]}, [2]}, [3]}, [4]}, [5]}). Настоящие результаты демонстрируют, что обновление модели после каждой презентации стимула с помощью самообучения делает эту модель более "подобной мозгу". |
To do so, we develop some general tools enabling rigorous finite arithmetic analysis of the shifted QR iteration with any shifting strategy which uses Ritz values as shifts, of which \(\mathsf {Sh}_{k,B}\) is a special case. We specifically address the following two issues. We assume familiarity with the shifted QR algorithm and standard background in numerical analysis; see [1]} and the references therein for more detail.
| Для этого мы разрабатываем некоторые общие инструменты, позволяющие проводить строгий арифметический анализ конечного сдвигового QR-алгоритма с любой стратегией сдвига, которая использует собственные значения Ритца в качестве сдвигов, из которых \(\mathsf {Sh}_{k,B}\) является особенным случаем. Мы в особенности рассматриваем следующие две проблемы. Мы предполагаем знакомство с сдвиговым QR-алгоритмом и стандартным фоном в численном анализе; см. [1] и ссылки там для получения более подробной информации. |
12= mh2 2h + mh'2 2h - mhD28 v2.
In the following discussion, we focus on \(\phi _h \lesssim 0.1\) to evade the direct detection constraints [1]}.
| 12 = mH2(2H + mH'2(2H - mHD28v2.
В данном обсуждении мы сосредоточимся на \(\phi _h \lesssim 0.1\) для избежания ограничений на прямое обнаружение [1]. |
where the dressing operation has been defined in Eqs. (REF ) and (REF ). In particular, all dressed quantities become functions of space and time, being determined by \(\vartheta (x,t)\) via Eq. (REF ). The expression of the current in Eq. (REF ) has been first discovered in Refs. [1]}, [2]} and it reads as
\(\langle j_i(0,0) \rangle _{\vartheta (x,t)} = \int \frac{\mbox{d} \lambda }{2 \pi } \, (E^{\prime })^{\mathrm {dr}}(x,t,\lambda ) \vartheta (x,t) h_i(\lambda ), \)
| где операция наряжения была определена в уравнениях (REF) и (REF). В частности, все наряженные величины становятся функциями пространства и времени, определяемыми через \(\vartheta (x,t)\) с помощью уравнения (REF). Выражение для тока в уравнении (REF) было впервые обнаружено в работах [1], [2] и записывается как
\(\langle j_i(0,0) \rangle _{\vartheta (x,t)} = \int \frac{\mbox{d} \lambda }{2 \pi } \, (E^{\prime })^{\mathrm {dr}}(x,t,\lambda ) \vartheta (x,t) h_i(\lambda ),\) |
The equivalence between GPs and randomly initialized single-layer NNs with infinite width was first shown by Neal [1]}. With the development of modern deep learning, researchers further extended this relationship to deep networks [2]}, [3]} and convolutional neural networks (CNNs) [4]}. This relationship is crucial for proving the resemblance between GPR and our ICK framework, which will be discussed in Section REF .
| Эквивалентность между гауссовскими процессами (GP) и случайно инициализированными NN с одним слоем и бесконечной шириной была впервые показана Нилом [1]. С развитием современного глубинного обучения исследователи дальше расширили эту связь на глубокие сети [2], [3] и сверточные нейронные сети (CNN) [4]. Эта связь является ключевой для доказательства сходства между ГПР и нашей ICK-структурой, о чем будет рассказано в разделе REF. |
Remark 1.9 Our approach can also be used to compute tables of \(\mathrm {TC}^{(d)}_{n,k}\) for small values of \(n\) , \(k\) , and \(d\) ; see the Appendix. Moreover, the approach is also capable of giving exact formulas for \(\mathrm {TC}^{(d)}_{n,k}\) and small values of \(k\) ; see [1]}, [2]} for formulas in the bicombining case.
| Замечание 1.9. Наш подход также можно использовать для вычисления таблиц \(\mathrm {TC}^{(d)}_{n,k}\) для небольших значений \( n \), \( k \) и \( d \); см. Приложение. Более того, данный подход также способен давать точные формулы для \(\mathrm {TC}^{(d)}_{n,k}\) и небольших значений \( k \); см. [1], [2] для формул в случае бикомбинирования. |
Several recent works attempt to use range images for multi-view 3D detection, but very few augmentations are developed for range images. [1]} attempts to paste objects in the range image without handling occlusions. Our Paste Box augmentation support coherently augmenting both range-view and point-view input data while handling occluded objects in a simple way (more details in fig:coherentops), which enables more realistic augmented scenes and enriches the data augmentations for multi-view 3D detectors.
| Несколько последних работ пытаются использовать диапазонные изображения для обнаружения 3D-объектов с нескольких точек зрения, но очень мало аугментаций разработаны для диапазонных изображений. [1] пытается вставить объекты на диапазонном изображении без учета заслонений. Наша аугментация Paste Box поддерживает согласованное увеличение как для входных данных с диапазонным видом, так и для входных данных с точечным видом, обрабатывая заслоненные объекты простым способом (подробности см. на рисунке: coherentops), что позволяет получить более реалистичные аугментированные сцены и расширяет аугментации данных для обнаружения 3D-объектов с нескольких точек зрения. |
A construction, originally due to Fontaine, provides us with a tilting functor that takes any perfectoid field \(K\) and transforms it into a perfectoid field \(K^{\flat }\) of characteristic \(p\) . We shall now describe this tilting functor. For more details, see §3 [1]}.
| Конструкция, впервые предложенная Фонтеном, дает нам наклоняющий функтор, который берет любое совершенное поле \(K\) и преобразует его в совершенное поле \(K^{\flat }\) с характеристикой \(p\) . Теперь мы опишем этот наклоняющий функтор. Дополнительные детали смотрите в разделе 3 [1]. |
Here we present our main evaluation on selected continuous control problems from MuJoCo [1]}.
Since our algorithm performs direct search in parameter space, we choose Augmented Random Search (ARS) [2]} as baseline for comparison.
Moreover, since our algorithm employs deterministic policies, off-policy data, and an actor-critic architecture, a natural competitor is the Deep Deterministic Policy Gradient (DDPG) algorithm [3]}, a strong baseline for continuous control.
| Здесь мы представляем основную оценку выбранных проблем непрерывного управления из MuJoCo [1].
Поскольку наш алгоритм выполняет прямой поиск в пространстве параметров, мы выбираем Augmented Random Search (ARS) [2] в качестве базовой линии для сравнения.
Более того, поскольку наш алгоритм использует детерминированные политики, данные вне политики и архитектуру актор-критик, естественным конкурентом является алгоритм Deep Deterministic Policy Gradient (DDPG) [3], сильная базовая линия для непрерывного управления. |
As deep neural networks (DNNs) can achieve superior performance compared with traditional methods,
they have been applied to a wide range of applications including classification [1]}, object detection [2]}, natural language processing [3]}, and so on recently. Besides, due to the rapid increasing popularity of edge devices such as mobile phones, and tablets, there are ever-increasing demands for deploying DNNs on various resource-limited edge devices.
| Так как глубокие нейронные сети (ГНС) могут достичь более высокой производительности по сравнению с традиционными методами, они были применены в широком спектре приложений, включая классификацию [1], обнаружение объектов [2], обработку естественного языка [3] и т. д. Кроме того, вследствие быстрого роста популярности мобильных устройств, таких как телефоны и планшеты, возрастает потребность в развёртывании ГНС на ресурсоограниченных устройствах. |
There are many examples of probabilistic heuristic arguments
in the literature across a very wide range
of domains (e.g. [1]}, [2]}, [3]}, [4]}, [5]}),
and many discussions of the philosophy of applying
heuristic arguments to unprovable statements (e.g. [6]}, [7]}).
But we are aware of very little work on formalizing these standards or attempting
to investigate heuristic arguments formally.
| В литературе много примеров вероятностных эвристических аргументов
в широком спектре областей (например, [1], [2], [3], [4], [5]).
Также существует множество обсуждений философии применения
эвристических аргументов к неопровержимым утверждениям (например, [6], [7]).
Однако существует очень мало работ, посвященных формализации этих стандартов
и попыткам формального исследования эвристических аргументов. |
By Proposition 5.7 on Page 69 in [1]}, for each \(s\ge 0\) , \(h\in H\) and \(u(\cdot )\in L^2(\mathbb {R}^+;U)\) , it holds that
\(y(t;s,h, u)=\Phi (t,s)h+\int ^t_s\Phi (t,r) D(r)u(r)dr, \;\; s\in [t, \infty ).\)
| Согласно Предложению 5.7 на странице 69 в [1], для каждого \(s\ge 0\), \(h\in H\) и \(u(\cdot )\in L^2(\mathbb {R}^+;U)\) выполняется
\(y(t;s,h, u)=\Phi (t,s)h+\int ^t_s\Phi (t,r) D(r)u(r)dr, \;\; s\in [t, \infty ).\) |
Ideally, \(\mathcal {E}\) should be independent of the model noise and bias. The algorithms shouldn't assume a particular type of noise or bias and we should be able to change the model or underlying landscape without making the algorithms useless [1]}. I.e. if we switch the model class, we would still have a usable exploration algorithm.
| Идеально, математическое ожидание \(\mathcal {E}\) должно быть независимо от шума и смещения модели. Алгоритмы не должны предполагать определенный тип шума или смещения, и мы должны иметь возможность изменять модель или основную структуру без утраты функциональности алгоритмов [1]. То есть, если мы заменяем класс моделей, мы все равно можем использовать алгоритм исследования. |
Andrews, Lewis and Lovejoy[1]} obtained
a Ramanujan-type congruence for the partition function \(PD(n)\) as
\(PD(3n+2)\equiv 0\pmod {3}.\)
| Андрюс, Льюис и Лавджой получили сравнение типа Рамануджана для функции разбиения \(PD(n)\) в виде \(PD(3n+2)\equiv 0\pmod {3}\). |
We also qualitatively compare our method with previous whole-body motion capture approaches, MTC [1]}, SMPLify-X [2]}, and ExPose [3]}, with our output with wrist integration network.
Results shown in Fig. REF and the demo video demonstrate that our method outperforms previous approaches, with fast and accurate performance in challenging in-the-wild scenes.
Qualitative comparison with Zhou [4]} is included in the Appendix .
| Мы также проводим качественное сравнение нашего метода с предыдущими подходами для захвата движений всего тела, такими как MTC [1]}, SMPLify-X [2]} и ExPose [3]}, используя выходные данные с интеграцией сети по запястью.
Результаты, показанные на рис. REF и в видео-демонстрации, демонстрируют, что наш метод превосходит предыдущие подходы, обеспечивая быструю и точную работу в сложных условиях на открытом воздухе.
Качественное сравнение с Zhou [4]} приведено в Приложении. |
The problem of describing the asymptotic distribution of Toeplitz type
quadratic forms and functionals of stationary processes has a long history,
and goes back to the classical monograph by Grenander and Szegő [1]},
where the CLT-problem for Gaussian processes was considered as an application
of the authors' theory of the asymptotic behavior of the trace of products of
truncated Toeplitz matrices and operators.
| Проблема описания асимптотического распределения квадратичных форм типа Тёплица и функционалов стационарных процессов имеет длинную историю и уходит к классической монографии Гренандера и Сегё [1], где проблема ЦПТ для гауссовых процессов рассматривалась как применение теории авторов о асимптотическом поведении следа произведений усеченных матриц и операторов Тёплица. |
MetaQA [1]} is a large-scale dataset containing more than 400k multi-hop question-answer pairs over MovieQA knowledge base [2]}. Since previous works have achieved \(\sim \) 100% accuracy on its SPARQL annotation [3]}, [4]}, we reconstruct MetaQA into Cypher as a few-shot learning benchmark. To the best of our knowledge, this is also the first Cypher dataset in the research field of graph query language parsing.
| MetaQA [1] - большой набор данных, содержащий более 400 тыс. пар вопрос-ответ с несколькими переходами на основе базы знаний MovieQA [2]. Поскольку ранее удалось достичь точности около 100% для его SPARQL-аннотации [3], [4], мы восстанавливаем MetaQA в формате Cypher для использования в качестве набора данных для обучения с небольшим количеством образцов. Насколько мы знаем, это также первый набор данных на языке запросов к графам Cypher в исследовательской области разбора графовых запросов. |
Hence, the modulus of \(\lambda \) affects the order of convergence of the roots of the discrete characteristic equation, as observed also in [1]}, [2]}. More precisely, characteristic roots that are smaller in modulus are approximated with better accuracy for the same value of \(M\) . This can indeed be observed experimentally in Figure REF .
| Следовательно, модуль \(\lambda \) влияет на порядок сходимости корней дискретного характеристического уравнения, как наблюдалось также в [1], [2]. Более точно, корни характеристики, имеющие меньший модуль, при том же значении \(M\) приближаются с более высокой точностью. Это действительно можно наблюдать экспериментально на рисунке REF. |
One such approach is the extension of RDF2vec already discussed [1]} above, which replaces random by biased walks, where the bias comes from property frequencies or PageRank of target nodes.
| Один из таких подходов - расширение уже обсуждаемого [1] RDF2vec, которое заменяет случайные на смещенные перемещения, где смещение происходит от частоты свойств или PageRank целевых узлов. |
This section introduces the end-to-end visual context attention model (VCAM) approach
to multi-talker modeling.
First, the audio-only and A/V M-T models presented in [1]} and [2]} are reviewed.
Second, the VCAM A/V M-T approach is motivated and described.
| В данном разделе представлена модель визуального контекста с разработкой вспомогательного внимания (VCAM) для моделирования разговора с несколькими собеседниками от начала и до конца.
Вначале рассмотрены модели только аудио и аудио-визуальные модели представленные в [1] и [2].
Затем описана и обоснована VCAM аудио-визуальная модель разговора с несколькими собеседниками. |
and the mass of the bound states is \(m= \epsilon _1 +\epsilon _ 2\) . By
requiring \(\Phi _{12}\) to give the mass \(m\) = \(g_{{}_{\rm 2D}}/\sqrt{\pi }\) in a
linearly confining potential to match Schwinger's exact solution for
massless fermions in QED in 1+1D, we find [1]}
\(\hspace*{-17.07182pt}\Phi _{12}(x_{12\perp } )=\frac{2\epsilon _1 \epsilon _2}{\epsilon _1+\epsilon _2}(- Q_1 Q_2) \kappa | x_1- x_2|, ~~~ \kappa =\frac{g_{{}_{\rm 2D}}^2}{4\pi },~~\)
| и масса связанных состояний равна \( m = \epsilon _1 +\epsilon _2 \). При
требовании, чтобы \(\Phi _{12}\) давало массу \(m = g_{{}_{\rm 2D}}/\sqrt{\pi }\) в
линейно ограничивающем потенциале, чтобы соответствовать точному решению Швингера
для безмассовых фермионов в квантовой электродинамике в 1+1D, мы получаем [1]:
\(\hspace*{-17.07182pt}\Phi _{12}(x_{12\perp } )=\frac{2\epsilon _1 \epsilon _2}{\epsilon _1+\epsilon _2}(- Q_1 Q_2) \kappa | x_1- x_2|, ~~~ \kappa =\frac{g_{{}_{\rm 2D}}^2}{4\pi },~~\) |
In our previous work ([1]}, accepted), we developed a novel method for selecting quasar candidates adopting the deep learning and the Bayesian information criterion (BIC). We applied this method to the HSC-SSP data that reaches a 5-\(\sigma \) depth of \(i\sim 26\) mag for point source detection [2]} which corresponds to \(M_{1450} \sim -20\) mag for \(z\sim 5\) quasars. We identified 35 faint quasar candidates, five being previously known quasars.
| В нашей предыдущей работе ([1], принято), мы разработали новый метод выбора кандидатов в квазары, используя глубокое обучение и байесовский информационный критерий (BIC). Мы применили этот метод к данным HSC-SSP, которые достигают глубины 5-\(\sigma \) в \(i\sim 26\) маг для обнаружения источников точечного источника [2], что соответствует \(M_{1450} \sim -20\) маг для квазаров с \(z\sim 5\). Мы идентифицировали 35 слабых кандидатов в квазары, из которых пять являются известными квазарами. |
Inspired by heuristic baselines evaluated on scene text VQA [1]}, [2]} and DocVQA [3]} datasets, we evaluate the following heuristic baselines and upper bounds:
(i) Majority answer: measures the performance when the most frequent answer in the train split is considered as the answer for all the questions in the test set. (ii) Biggest OCR token: measures the performance when the OCR token that occupies the largest area in the video is considered as the answer.
| Вдохновленные эвристическими базовыми показателями, оцененными на наборах данных Scene Text VQA [1] и [2] и DocVQA [3], мы оцениваем следующие эвристические базовые показатели и верхние границы:
(i) Правильный ответ: измеряет производительность, когда самый частый ответ в тренировочном наборе считается ответом для всех вопросов в тестовом наборе. (ii) Самый большой токен OCR: измеряет производительность, когда токен OCR, занимающий наибольшую площадь в видео, считается ответом. |
This is an almost immediate application of [1]} (see also [2]}). By an immediate application of the latter, we obtain for each \(j\in \llbracket d \rrbracket \) that with probability at least \(1 - \delta /d\) we have :
\(\big |\widehat{g}_j(\theta ) - g_j(\theta )\big | \le 7 \sigma _{j} \sqrt{4\eta + 6\frac{\log (4/\delta ) + \log (d)}{n}}.\)
| Это практически немедленное применение [1] (см. также [2]). С помощью данного применения мы получаем, что для каждого \(j\in \llbracket d \rrbracket \) с вероятностью не меньше \(1 - \delta /d\) выполняется:
\(\big |\widehat{g}_j(\theta ) - g_j(\theta )\big | \le 7 \sigma _{j} \sqrt{4\eta + 6\frac{\log (4/\delta ) + \log (d)}{n}}.\) |
The hub depressed index was also a result of the same study [1]}. The HD index promotes link formation between hubs and between low-degree nodes, but not between hubs and low-degree nodes:
\(s(x,y)=\dfrac{|\Gamma _x\cap \Gamma _y|}{\max (|\Gamma _x|,|\Gamma _y|)}\)
| Индекс депрессии хаба also был результатом того же исследования [1]. Индекс HD способствует формированию связей между хабами и между узлами с низкой степенью, но не между хабами и узлами с низкой степенью:
\(s(x,y)=\dfrac{|\Gamma _x\cap \Gamma _y|}{\max (|\Gamma _x|,|\Gamma _y|)}\) |
Generalized gauge symmetries of classical field theories on a manifold
\(M\) which are irreducible can be encoded
in 2-term \(L_\infty \) -algebras [1]}, [2]}. For the purposes of the present paper,
the underlying graded vector space encoding the kinematical data on an
open subset \(U\subseteq M\) has non-zero homogeneous subspaces
only in degrees 0 and 1, and is given by
\( V = C^\infty (U) \oplus \Omega ^1(U) \ ,\)
| Обобщенные калибровочные симметрии классических полевых теорий на многообразии \( M \), которые являются неприводимыми, могут быть закодированы в 2-членных \( L_\infty \)-алгебрах [1], [2]. В контексте данной статьи, основное градуированное векторное пространство, кодирующее кинематические данные на открытом подмножестве \( U \subseteq M \), имеет ненулевые однородные подпространства только в степенях 0 и 1 и определяется следующим образом:
\( V = C^\infty (U) \oplus \Omega ^1(U) \). |
Remark Here the dimension restriction is due to the trapping phenomenon, i.e. we need the flow \(\mathcal {M}\) to be trapped between two asymptotically conical self-expanders, which is only known in low dimensions [1]}.
| Заметка. Здесь ограничение на размерность обусловлено явлением захвата, то есть нам необходимо, чтобы поток \(\mathcal {M}\) был захвачен между двумя асимптотически коническими саморасширяющимися параболоидами, что известно только в низких размерностях [1]. |
There is a simple condition for having an even Artin graph of type FC: \(m\) is an even labelling of \(E\) and for any triangle with edges \(\lbrace u,v\rbrace ,\lbrace v,w\rbrace ,\lbrace w,u\rbrace \in E\) , at least two of \(m_{u,v},m_{v,w}, m_{w,u}\) are equal to two (see [1]}).
| Для того, чтобы иметь четную графовую структуру Артина типа FC, существует простое условие: \(m\) представляет собой четкую маркировку ребер \(E\), и для любого треугольника с ребрами \(\lbrace u, v\rbrace ,\lbrace v, w\rbrace ,\lbrace w, u\rbrace \in E\) , по крайней мере два значения из \(m_{u,v}, m_{v,w}, m_{w,u}\) равны двум (см. [1]). |
The two real world environments are taken from area 3 from the 2D-3D-S dataset [1]}. To generate the two environments, we used the 3D mesh from the dataset and defined a subset of the area to be the environment. We then generated an occupancy grid by densely sampling the mesh, which we then used to compute the SDF.
| Два реальных мира взяты из области 3 набора данных 2D-3D-S [1]. Чтобы создать эти два мира, мы использовали 3D-сетку из набора данных и определили подмножество области в качестве окружения. Затем мы плотно выбрали образцы из сетки, чтобы сгенерировать сетку занятости, которую затем использовали для вычисления SDF. |
Based on these datasets, a lot of cross-modality frameworks have been proposed to solve this problem, such as modular neural networks [1]}, [2]}, attention-based networks [3]}, [4]}. Recently, inspired by the language model pretraining in NLP, some cross-modality vision and language pre-training methods have also been proposed [5]}, [6]}, [7]}, [8]}, [9]}. Those pre-training methods utilize large-scale, probably noisy, image and caption pairs and achieve state-of-the-art results on various VQA problems.
| На основе этих наборов данных было предложено много кроссмодальных фреймворков для решения этой проблемы, таких как модульные нейронные сети [1], [2], сети на основе внимания [3], [4]. Недавно, вдохновленные предварительным обучением языковой модели в области обработки естественного языка (NLP), также были предложены методы предварительного обучения визуальной и языковой модальностей [5], [6], [7], [8], [9]. Эти методы предварительного обучения используют масштабируемые, вероятно шумные, пары изображений и подписей и достигают современных результатов на различных задачах VQA. |