المرجع الالكتروني للمعلوماتية
المرجع الألكتروني للمعلوماتية

الرياضيات
عدد المواضيع في هذا القسم 9761 موضوعاً
تاريخ الرياضيات
الرياضيات المتقطعة
الجبر
الهندسة
المعادلات التفاضلية و التكاملية
التحليل
علماء الرياضيات

Untitled Document
أبحث عن شيء أخر
تنفيذ وتقييم خطة إعادة الهيكلة (إعداد خطة إعادة الهيكلة1)
2024-11-05
مـعاييـر تحـسيـن الإنـتاجـيـة
2024-11-05
نـسـب الإنـتاجـيـة والغـرض مـنها
2024-11-05
المـقيـاس الكـلـي للإنتاجـيـة
2024-11-05
الإدارة بـمؤشـرات الإنـتاجـيـة (مـبادئ الإنـتـاجـيـة)
2024-11-05
زكاة الفطرة
2024-11-05

الثنائية ؛ موجات – جسيمات
17-5-2016
إطار الخريطة
9-7-2018
Molecular Clock
3-10-2016
يقوم التفاعل الاجتماعي على أربعة أسس أو محددات
2023-02-21
الآفات التي تصيب جـذور وسـيقان النخيل
10-1-2016
تنزيه يعقوب عن الحزن المكروه
19-12-2017

Inverse Problem  
  
1045   06:22 مساءً   date: 16-11-2021
Author : Groetsch, C. W.
Book or Source : Inverse Problems: Activities for Undergraduates. Washington, DC: Math. Assoc. Amer., 1999.
Page and Part : ...


Read More
Date: 29-9-2021 1014
Date: 14-2-2016 1161
Date: 29-11-2021 959

Inverse Problem

To predict the result of a measurement requires (1) a model of the system under investigation, and (2) a physical theory linking the parameters of the model to the parameters being measured. This prediction of observations, given the values of the parameters defining the model constitutes the "normal problem," or, in the jargon of inverse problem theory, the forward problem. The "inverse problem" consists in using the results of actual observations to infer the values of the parameters characterizing the system under investigation.

Inverse problems may be difficult to solve for at least two different reasons: (1) different values of the model parameters may be consistent with the data (knowing the height of the main-mast is not sufficient for calculating the age of the captain), and (2) discovering the values of the model parameters may require the exploration of a huge parameter space (finding a needle in a 100-dimensional haystack is difficult).

Although most of the formulations of inverse problems proceed directly to the setting of an optimization problem, it is actually best to start using a probabilistic formulation, the optimization formulation then appearing as a by-product.

Consider a manifold M with a notion of volume. Then for any A subset M,

 V(A)=int_AdV.

(1)

A volumetric probability is a function f that to any A subset M associates its probability

 P(A)=int_AdVf.

(2)

If M is a metric manifold endowed with some coordinates {x^1,...,x^n}, then

 dV=sqrt(detg)dx^1 ^ ... ^ dx^n

(3)

and

P(A) = int_Adx^1 ^ ... ^ dx^nsqrt(detg)f_()

(4)

= int_Adx^1 ^ ... ^ dx^nf^_.

(5)

(Note that the volumetric probability f is an invariant, but the probability density f^_ is not; it is a density.)

A basic operation with volumetric probabilities is their product,

 (f·g)(P)=1/nuf(P)g(P),

(6)

where nu=int_MdVf(P)g(P). This corresponds to a "combination of probabilities" well suited to many basic inference problems.

Consider an example in which two planes make two estimations of the geographical coordinates of a shipwrecked man. Let the probabilities be represented by the two volumetric probabilities f(phi,lambda) and g(phi,lambda). The volumetric probability that combines these two pieces of information is

 (f·g)(phi,lambda)=(f(phi,lambda)g(phi,lambda))/(intdS(phi,lambda)f(phi,lambda)g(phi,lambda)).

(7)

This operation of product of volumetric probabilities extends to the following case:

1. There is a volumetric probability f(P) defined on a first manifold M.

2. There is another volumetric probability phi(Q) defined on a second manifold N.

3. There is an application P|->Q=Q(P) from M into N.

Then, the basic operation introduced above becomes

 g(P)=1/nuf(P)phi(Q(P)),

(8)

where nu=int_MdV(P)f(P)phi(Q(P)).

In a typical inverse problem, there is:

1. A set of model parameters {m^1,m^2,...,m^n}.

2. A set of observable parameters {o^1,o^2,...,o^n}.

3. A relation o^i=o^i(m^1,m^2,...,m^n) predicting the outcome of the possible observations.

The model parameters are coordinates on the model parameter manifold M while the observable parameters are coordinates over the observable parameter manifold O. When the points on M are denoted M, ... and the points on O are denoted O, ..., the relation between the model parameters an the observable parameters is written M|->O=O(M).

The three basic elements of a typical inverse problem are:

1. Some a priori information on the model parameters, represented by a volumetric probability rho_(prior)(M) defined over M.

2. Some experimental information obtained on the observable parameters, represented by a volumetric probability sigma_(obs)(O) defined over O.

3. The 'forward modeling' relation M|->O=O(M) that we have just seen.

The use of equation (8) leads to

 rho_(post)(M)=1/nurho_(prior)(M)sigma_(obs)(O(M)),

(9)

where nu is a normalization constant. This volumetric probability represents the resulting information one has on the model parameters (obtained by combining the available information). Equation (9) provides the more general solution to the inverse problem. Common methods (Monte Carlo, optimization, etc.) can be seen as particular uses of this equation.

Considering an example from sampling, sample the a priori volumetric probability rho_(prior)(M) to obtain (many) random models M_1M_2, .... For each model M_i, solve the forward modeling problem, O_i=O_i(M_i). Give to each model M_i a probability of 'survival' proportional to sigma_(obs)(O_i(M_i)). The surviving models , ... are samples of the a posteriori volumetric probability

 rho_(post)(M)=1/nurho_(prior)(M)sigma_(obs)(O(M)).

(10)

Considering an example from least-squares fitting, the model parameter manifold may be a linear space, with vectors denoted m, ..., and the a priori information may have the Gaussian form

 rho_(prior)(m)=kexp[-1/2(m-m_(prior))^(T)C_m^(-1)(m-m_(prior))].

(11)

The observable parameter manifold may be a linear space, with vectors denoted o, ... and the information brought by measurements may have the Gaussian form

 sigma_(obs)(o)=kexp[-1/2(o-o_(obs))^(T)C_o^(-1)(o-o_(obs))]).

(12)

The forward modeling relation becomes, with these notations,

 o=o(m).

(13)

Then, the posterior volumetric probability for the model parameters is

 rho_(post)(m)=kexp[-S(m)],

(14)

where the misfit function S(m) is the sum of squares

 2S(m)=(m-m_(prior))^(T)C_m^(-1)(m-m_(prior)) 
 +(o(m)-o_(obs))^(T)C_o^(-1)(o(m)-o_(obs)).

(15)

The maximum likelihood model is the model m maximizing rho_(post)(m). It is also the model minimizing S(m). It can be obtained using a quasi-Newton algorithm,

 m_(n+1)=m_n-H_n^(-1)gamma_n,

(16)

where the Hessian of S is

 H_n=I+C_mO_n^(T)C_o^(-1)O_n

(17)

and the gradient of S is

 gamma_n=C_mO_n^(T)C_o^(-1)(o(m_n)-o_(obs))+(m_n-m_(prior)).

(18)

Here, the tangent linear operator O_n is defined via

 o(m_n+deltam)=o(m_n)+O_ndeltam+....

(19)

As we have seen, the model m_infty at which the algorithm converges maximizes the posterior volumetric probability rho_(post)(m).

To estimate the posterior uncertainties, one can demonstrate that the covariance operator of the Gaussian volumetric probability that is tangent to rho_(post)(m) at m_infty is H_infty^(-1)C_m.


 

REFERENCES:

 

Groetsch, C. W. Inverse Problems: Activities for Undergraduates. Washington, DC: Math. Assoc. Amer., 1999.

Kozhanov, A. I. Composite Type Equations and Inverse Problems. Utrecht, Netherlands: VSP, 1999.

Mosegaard, K. and Tarantola, A. "Probabilistic Approach to Inverse Problems." In International Handbook of Earthquake & Engineering Seismology, Part A. New York: Academic Press, pp. 237-265, 2002.

Prilepko, A. I.; Orlovsky, D. G.; and Vasin, I. A. Methods for Solving Inverse Problems in Mathematical Physics. New York: Dekker, 1999.

Tarantola, A. Inverse Problem Theory and Model Parameter Estimation. Philadelphia, PA: SIAM, 2004. http://www.ccr.jussieu.fr/tarantola/.




الجبر أحد الفروع الرئيسية في الرياضيات، حيث إن التمكن من الرياضيات يعتمد على الفهم السليم للجبر. ويستخدم المهندسون والعلماء الجبر يومياً، وتعول المشاريع التجارية والصناعية على الجبر لحل الكثير من المعضلات التي تتعرض لها. ونظراً لأهمية الجبر في الحياة العصرية فإنه يدرّس في المدارس والجامعات في جميع أنحاء العالم. ويُعجب الكثير من الدارسين للجبر بقدرته وفائدته الكبيرتين، إذ باستخدام الجبر يمكن للمرء أن يحل كثيرًا من المسائل التي يتعذر حلها باستخدام الحساب فقط.وجاء اسمه من كتاب عالم الرياضيات والفلك والرحالة محمد بن موسى الخورازمي.


يعتبر علم المثلثات Trigonometry علماً عربياً ، فرياضيو العرب فضلوا علم المثلثات عن علم الفلك كأنهما علمين متداخلين ، ونظموه تنظيماً فيه لكثير من الدقة ، وقد كان اليونان يستعملون وتر CORDE ضعف القوسي قياس الزوايا ، فاستعاض رياضيو العرب عن الوتر بالجيب SINUS فأنت هذه الاستعاضة إلى تسهيل كثير من الاعمال الرياضية.

تعتبر المعادلات التفاضلية خير وسيلة لوصف معظم المـسائل الهندسـية والرياضـية والعلمية على حد سواء، إذ يتضح ذلك جليا في وصف عمليات انتقال الحرارة، جريان الموائـع، الحركة الموجية، الدوائر الإلكترونية فضلاً عن استخدامها في مسائل الهياكل الإنشائية والوصف الرياضي للتفاعلات الكيميائية.
ففي في الرياضيات, يطلق اسم المعادلات التفاضلية على المعادلات التي تحوي مشتقات و تفاضلات لبعض الدوال الرياضية و تظهر فيها بشكل متغيرات المعادلة . و يكون الهدف من حل هذه المعادلات هو إيجاد هذه الدوال الرياضية التي تحقق مشتقات هذه المعادلات.