The Higher Education and Research forge

Home My Page Projects Code Snippets Project Openings Complex Surface Machining Optimization
Summary Activity SCM

SCM Repository

authorMahfoud Herraz <mahfoud@debian>
Thu, 21 May 2020 14:58:50 +0000 (16:58 +0200)
committerMahfoud Herraz <mahfoud@debian>
Thu, 21 May 2020 14:58:50 +0000 (16:58 +0200)
Publis/JIM2020/v1.0/main.tex

index 40a3db5..10dc999 100644 (file)
@@ -546,9 +546,103 @@ Besides, the second test surface appeared also in \cite{vu_new_2018} where a par
 \label{sec:app1}
 \subsection{Add}\label{sec:appA1}
 \hl{TODO}
+
+Let $n\in\mathbb{N}$ be an integer, $(x_i)_{1\leq i\leq n}\in\mathbb{R}^n$ a sample of real values of mean $\mbox{E}_n$ and variance $\mbox{Var}_n$. Let $x_{n+1}\in\mathbb{R}$ be a new real, we seek to calculate the mean $\mbox{E}_{n+1}$ and the variance $\mbox{Var}_{n+1}$ of the sample $(x_i)_{1\leq i\leq n+1}$ from $\mbox{E}_n$ et $\mbox{Var}_n$:
+\begin{equation}
+\begin{split}
+\mbox{E}_{n+1}&=\frac{1}{n+1}\sum_{i=1}^{n+1} x_i=\frac{1}{n+1}\left(\sum_{i=1}^{n}{x_i} + x_{i+1}\right)\\
+ &=\frac{n}{n+1}\mbox{E}_n + \frac{x_{n+1}}{n+1}
+\end{split}
+\label{addmean}
+\end{equation}
+As for the variance:
+\begin{equation*}
+ \mbox{Var}_n=\frac{1}{n}\sum_{i=1}^{n} x_i^2 - \mbox{E}_n^2
+\end{equation*}
+Using the last equation, it is straightforward that:
+\begin{equation}
+ \begin{split}
+  \mbox{Var}_{n+1}&=\frac{1}{n+1}\sum_{i=1}^{n+1} x_i^2 - \mbox{E}_{n+1}^2=\frac{n}{n+1}\sum_{i=1}^n{\frac{x_i^2}{n}}+\frac{x_{n+1}^2}{n+1}-\mbox{E}_{n+1}^2\\
+   &=\frac{n}{n+1}\left(\mbox{Var}_n+\mbox{E}_n^2\right)+\frac{x_{n+1}^2}{n+1}-\left(\frac{n}{n+1}\mbox{E}_n + \frac{x_{n+1}}{n+1}\right)^2
+ \end{split}
+ \label{addvar}
+\end{equation}
+
+A similar equation can be found for the covariance of two variables: Let $(x_i)_{1\leq i\leq n}\in\mathbb{R}^n$ and $(y_i)_{1\leq i\leq n}\in\mathbb{R}^n$ be two real samples of means $\mbox{E}_{x,n}$ et $\mbox{E}_{y,n}$ respectively, we denote $\mbox{Cov}_n$ their covariance:
+\begin{equation*}
+ \mbox{Cov}_n=\frac{1}{n}\sum_{i=1}^n {x_iy_i} - \mbox{E}_{x,n}\mbox{E}_{y,n}
+\end{equation*}
+Hence, the covariance $\mbox{Cov}_{n+1}$ of samples $(x_i)_{1\leq i\leq n+1}$ and $(y_i)_{1\leq i\leq n+1}$ is written:
+\begin{equation}
+ \begin{split}
+  \mbox{Cov}_{n+1}&=\frac{1}{n+1}\sum_{i=1}^{n+1}{x_iy_i} - \mbox{E}_{x,n+1}\mbox{E}_{y,n+1} \\
+  &=\frac{n}{n+1}\sum_{i=1}^{n}{\frac{x_iy_i}{n}} + \frac{x_{n+1}y_{n+1}}{n+1} - \mbox{E}_{x,n+1}\mbox{E}_{y,n+1} \\
+   &=\frac{n}{n+1}\left(\mbox{Cov}_n+\mbox{E}_{x,n}\mbox{E}_{y,n}\right)+\frac{x_{n+1}y_{n+1}}{n+1} \\
+   &- \left(\frac{n}{n+1}\mbox{E}_{x,n} + \frac{x_{n+1}}{n+1}\right)\left(\frac{n}{n+1}\mbox{E}_{y,n} + \frac{x_{n+1}}{n+1}\right)
+ \end{split}
+ \label{addcov}
+\end{equation}
+
+From the scalar equations \ref{addmean}, \ref{addvar}, \ref{addcov} we can derive the matrix equation that enabeling the covariance marix update of a vectors sample. Let $p\in\mathbb{N}^*$ be the dimension of vectors, $n\in\mathbb{N}$ their number, $(\mathbf{X}_i)_{1\leq i\leq n}\in\left(\mathbb{R}^p\right)^n$ the sample of vectors of $\mathbb{R}^p$. The mean of the sample is denoted $\mathbf{E}_n$ while $\Sigma_n$ denotes its covariance matrix: 
+\begin{equation*}
+ \forall (k,l)\in\{1, \dots,p\}^2,\ \left(\Sigma_n\right)_{kl}=\mbox{Cov}\left(\left(\mathbf{X}_i\right)_k,\left(\mathbf{X}_i\right)_l\right)
+\end{equation*}
+where $\left(\mathbf{X}_i\right)_k$ denotes the scalar sample defined by the $k$-th component of vectors $\mathbf{X}_i$.
+
+Let $\mathbf{X}_{n+1}\in\mathbb{R}^p$ be a new vector to be added to the sample, the covariance matrix of the augmented sample $\left(\mathbf{X}_i\right)_{1\leq i\leq n+1}$ is written:
+\begin{equation}
+\begin{split}
+ \Sigma_{n+1}&=\frac{n}{n+1}\left(\Sigma_n+\mathbf{E}_n\mathbf{E}_n^T\right)+\frac{\mathbf{X}_{n+1}\mathbf{X}_{n+1}^T}{n+1} \\
+ &-\left(\frac{n}{n+1}\mathbf{E}_n+\frac{\mathbf{X}_{n+1}}{n+1}\right)\left(\frac{n}{n+1}\mathbf{E}_n+\frac{\mathbf{X}_{n+1}}{n+1}\right)^T
+ \label{addcovar}
+\end{split}
+\end{equation}
+
+Equation \ref{addcovar} enables the update of covariance matrix $\Sigma_{n+1}$ of a zone (cluster) that initially contains $n$ meshes of feature vectors $\left(\mathbf{X}_i\right)_{1\leq i\leq n}$ (and covariance matrix $\Sigma_n$), after the addition of a new mesh which feature vector is $\mathbf{X}_{n+1}$.
 \subsection{Remove}\label{sec:appA2}
 \hl{TODO}
 
+Dans ce cas, on ne peut pas retirer une maille à une zone vide, donc $n\in\mathbb{N}^*$. De plus si $n=1$, et qu'on retire une maille, la zone devient vide et sa matrice de covariance est nulle. Dans la suite on suppose que $n\geq2$~:
+
+Soit $(x_i)_{1\leq i\leq n}\in\mathbb{R}^n$ un échantillon statistique de moyenne $\mbox{E}_n$ et de variance $\mbox{Var}_n$, on cherche à calculer la moyenne $\mbox{E}_{n-1}$ et la variance $\mbox{Var}_{n-1}$ de l’échantillon $(x_i)_{1\leq i\leq n-1}$ à partir de $\mbox{E}_n$ et $\mbox{Var}_n$~:
+\begin{equation}
+ \begin{split}
+  \mbox{E}_{n-1}&=\frac{1}{n-1}\sum_{i=1}^{n-1} x_i=\frac{1}{n-1}\left(\sum_{i=1}^n{x_i} - x_n\right) \\
+   &=\frac{n}{n-1}\mbox{E}_n - \frac{x_n}{n-1}
+ \end{split}
+ \label{removemean}
+\end{equation}
+Pour la variance on a~:
+\begin{equation}
+ \begin{split}
+  \mbox{Var}_{n-1}&=\frac{1}{n-1}\sum_{i=1}^{n-1}{x_i^2}-\mbox{E}_{n-1}^2=\frac{n}{n-1}\sum_{i=1}^n{x_i^2}-\frac{x_n^2}{n-1}-\mbox{E}^2_{n-1}\\
+   &=\frac{n}{n-1}\left(\mbox{Var}_n+\mbox{E}_n^2\right)-\frac{x_n^2}{n-1}-\left(\frac{n}{n-1}\mbox{E}_n - \frac{x_n}{n-1}\right)^2
+ \end{split}
+ \label{removevar}
+\end{equation}
+On peut trouver une relation similaire pour la covariance de deux variables~: Soit $(x_i)_{1\leq i\leq n}\in\mathbb{R}^n$ et \newline$(y_i)_{1\leq i\leq n}\in\mathbb{R}^n$ deux échantillons statistiques de moyennes $\mbox{E}_{x,n}$ et $\mbox{E}_{y,n}$, on note $\mbox{Cov}_n$ leur covariance~:
+\begin{equation*}
+ \mbox{Cov}_n=\frac{1}{n}\sum_{i=1}^n {x_iy_i} - \mbox{E}_{x,n}\mbox{E}_{y,n}
+\end{equation*}
+Ainsi, la covariance $\mbox{Cov}_{n-1}$ des variables $(x_i)_{1\leq i\leq n-1}$ et $(y_i)_{1\leq i\leq n-1}$ s'écrit~:
+\begin{equation}
+ \begin{split}
+  \mbox{Cov}_{n-1}&=\frac{1}{n-1}\sum_{i=1}^{n-1}{x_iy_i} - \mbox{E}_{x,n-1}\mbox{E}_{y,n-1}=\frac{n}{n-1}\sum_{i=1}^{n}{\frac{x_iy_i}{n}} - \frac{x_ny_n}{n-1} - \mbox{E}_{x,n-1}\mbox{E}_{y,n-1} \\
+   &=\frac{n}{n-1}\left(\mbox{Cov}_n+\mbox{E}_{x,n}\mbox{E}_{y,n}\right)-\frac{x_ny_n}{n-1} - \left(\frac{n}{n-1}\mbox{E}_{x,n} - \frac{x_n}{n-1}\right)\left(\frac{n}{n-1}\mbox{E}_{y,n} - \frac{x_n}{n-1}\right)
+ \end{split}
+ \label{removecov}
+\end{equation}
+
+À partir des équations scalaires \ref{removemean}, \ref{removevar}, \ref{removecov} on peut construire une équation matricielle pour mettre à jour la matrice de covariance d'un échantillon statistique de vecteurs.
+
+Soit $p\in\mathbb{N}^*$, $n\geq2$, $(\mathbf{X}_i)_{1\leq i\leq n}\in\left(\mathbb{R}^p\right)^n$ un échantillon statistique de vecteurs de $\mathbb{R}^p$. On note $\mathbf{E}_n$ la moyenne de l’échantillon et $\Sigma_n$ sa matrice de covariance. La matrice de covariance de l'échantillon $\left(\mathbf{X}_i\right)_{1\leq i\leq n-1}$ s'écrit alors~:
+\begin{equation}
+ \Sigma_{n-1}=\frac{n}{n-1}\left(\Sigma_n+\mathbf{E}_n\mathbf{E}_n^T\right)-\frac{\mathbf{X}_n\mathbf{X}_n^T}{n-1}-\left(\frac{n}{n-1}\mathbf{E}_n-\frac{\mathbf{X}_n}{n-1}\right)\left(\frac{n}{n-1}\mathbf{E}_n-\frac{\mathbf{X}_n}{n-1}\right)^T
+ \label{removecovar}
+\end{equation}
+
+L'équation \ref{removecovar} permet de mettre à jour la matrice de covariance $\Sigma_{n-1}$ d'une zone qui contient initialement $n$ mailles de vecteurs caractéristiques $\left(\mathbf{X}_i\right)_{1\leq i\leq n}$ (de matrice de covariance $\Sigma_n$), après retrait de la maille $n$ de vecteur $\mathbf{X}_n$.
+
 \end{document}