베이시안 프로그래밍

Bayesian programming

베이시안 프로그래밍은 확률론적 모델을 명시하고 필요한 정보가 없을 때 문제를 해결하는 기법을 갖는 형식주의 및 방법론이다.

에드윈 T. 제인즈는 불완전하고 불확실한 정보를 가진 이성적 추론의 대안이자 논리의 확장으로서 확률을 고려할 수 있다고 제안했다. 그의 창간 저서 확률론에서:[1] 개발한 과학논리는 이 이론을 발전시켜 이른바 '로봇'이라는 것을 제안했는데, 이는 물리적인 장치가 아니라 확률적 추론을 자동화하기 위한 추론 엔진인 논리가 아닌 확률에 대한 일종의 프롤로그였다. 베이시안 프로그래밍은[2] 이 "로봇"의 공식적이고 구체적인 구현이다.

베이시안 프로그래밍은 예를 들어 베이시안 네트워크, 동적 베이시안 네트워크, 칼만 필터 또는 숨겨진 마르코프 모델과 같은 그래픽 모델을 지정하기 위한 대수적 형식주의로도 보일 수 있다. 실제로 베이시안 프로그래밍은 베이시안 네트워크보다 일반적이며 확률론적 요인 그래프와 동등한 표현력을 가지고 있다.[3]

형식주의

베이시안 프로그램은 확률 분포의 집단을 지정하는 수단이다.

베이시안 프로그램의 구성 요소는 다음과 같다.[4]

  1. 프로그램은 설명과 질문으로 구성된다.
  2. 설명은 프로그래머가 제공한 일부 })과 데이터 집합( 을 사용하여 사양에 완전히 지정되지 않은 파라미터에 대한 식별 또는 학습 프로세스를 사용하여 작성된다.
  3. 규격은 관련 변수 집합, 분해 및 형태 집합에서 생성된다.
  4. 양식은 파라메트릭 양식이나 다른 베이시안 프로그램에 대한 질문이다.
  5. 질문은 어떤 확률 분포를 계산해야 하는지 명시한다.

설명

The purpose of a description is to specify an effective method of computing a joint probability distribution on a set of variables given a set of experimental data and some specification 공동 분포과 같이 표시된다: P( X NΔ ){\1}\ X_{\pi \ \pi \pi \pi \right[5]

예비 지식 을(를) 지정하려면 프로그래머가 다음 작업을 수행해야 한다

  1. 공동 분포를 정의하는 관련 변수 , 2,, 의 집합을 정의하십시오.
  2. 공동 분포를 분해한다(관련된 독립 확률 또는 조건부 확률로 구분).
  3. 각 분포의 형태(예: 각 변수에 대해 확률 분포 목록 중 하나)를 정의하십시오.

분해

Given a partition of containing subsets, variables are defined , each corresponding to one of these subsets. 각 변수 k h {\(를) 함께 사용하여 얻는다 베이즈 정리의 재귀적 적용은 다음과 같은 결과를 초래한다.

그러면 조건부 독립 가설은 더 단순화할 수 있다. A conditional independence hypothesis for variable is defined by choosing some variable among the variables appearing in the conjunction , labelling 을(를) 이러한 선택한 변수와 설정의 결합으로 사용:

그 후 다음을 얻는다.

이러한 공동분포를 단순한 분포의 산물로서 단순화하는 것을 체인 규칙을 사용하여 도출한 분해라고 한다.

이것은 각 변수가 수학적으로 유효한 분해물을 작성하는 데 필요하고 충분한 조건인 컨디셔닝 바의 왼쪽에 최대 한 번 나타나도록 보장한다.[citation needed]

양식

Each distribution appearing in the product is then associated with either a parametric form (i.e., a function ) or a question to another Bayesian program {\

으로 f ) ) 형식인경우 \mu}은 k {\ 또는 둘 모두에 의존할 수 있는 파라미터의 벡터다. 이러한 파라미터 중 일부가 데이터 세트 {\ }을를) 사용하여 계산될 때 학습이 이루어진다

베이시안 프로그래밍의 중요한 특징은 다른 베이시안 프로그램에 대한 질문을 새로운 베이시안 프로그램의 정의의 구성요소로 사용할 수 있는 능력이다. is obtained by some inferences done by another Bayesian program defined by the specifications and the data . This is similar to 고전적인 프로그래밍에서 서브루틴을 호출하고 계층적 모델을 쉽게 구축할 수 있는 방법을 제공한다.

질문

Given a description (i.e., ), a question is obtained by partitioning into three sets: the s이어링된 변수, 알려진 변수 및 자유 변수.

세 변수 a a n 은 이러한 집합에 속하는 변수의 결합으로 정의된다.

질문은 분포의 집합으로 정의된다.

w 의 추기경으로서 많은 "인스턴트 질문"으로 만들어졌으며 각각의 질문은 다음과 같은 분포가 된다.

추론

Given the joint distribution , it is always possible to compute any possible question using the following general inference:

첫 번째 평등이 한계화 규칙에서 비롯되는 경우, 두 번째 평등은 베이즈의 정리로부터, 세 번째 평등은 한계화의 두 번째 적용에 해당한다. 분모는 정규화 기간으로 보이며 상수 로 대체될 수 있다

이론적으로 이것은 베이지안 추론 문제를 해결할 수 있다. 그러나 실제로 있는 Δδ 를 계산하는 비용은 거의 모든 경우에 너무 크다.

이음매 분포를 분해로 대체하면 다음과 같은 결과를 얻을 수 있다.

문제의 차원성은 낮은 차원 분포의 산물로 분해되어 상당히 감소하기 때문에 일반적으로 계산하기 훨씬 간단한 표현이다.

베이시안 스팸 탐지

베이시안 스팸 필터링의 목적은 정크 메일을 제거하는 것이다.

그 문제는 공식화하기 매우 쉽다. 이메일은 두 가지 범주 중 하나로 분류되어야 한다: 비 스팸 또는 스팸. 이메일을 분류하는 데 사용할 수 있는 유일한 정보는 그들의 내용, 즉 단어 집합이다. 이러한 단어를 순서를 고려하지 않고 사용하는 것을 흔히 단어모형 백이라고 부른다.

분류자는 더 나아가 사용자에게 적응할 수 있어야 하며 경험을 통해 배울 수 있어야 한다. 초기 표준 설정부터 분류자는 사용자가 자신의 결정에 동의하지 않을 때 내부 매개변수를 수정해야 한다. 따라서 사용자의 기준에 적응하여 비스팸과 스팸을 구별할 수 있다. 그것은 점점 더 기밀로 분류되는 이메일과 마주치게 되면서 그 결과를 향상시킬 것이다.

변수

이 프로그램을 작성하는 데 필요한 변수는 다음과 같다.

  1. a : 2진수 변수, 전자 메일이 스팸이 아니면 거짓이고 그렇지 않으면 참이다.
  2. , ,, - 1 : N 변수. 사전의 n 본문에 있으면 참이다.

이러한 + 이진 변수는 전자 메일에 대한 모든 정보를 합한 것이다.

분해

공동분포에서 시작하여 베이즈의 정리를 재귀적으로 적용하여 다음과 같이 얻는다.

이것은 정확한 수학적 표현이다.

본문의 성질(스팸인지 아닌지)을 알고 있는 단어의 출현 확률은 다른 단어의 출현과 무관하다고 가정하면 대폭 간소화할 수 있다. 이것은 순진한 베이즈 가정이고 이것은 이 스팸 필터를 순진한 베이즈 모델로 만든다.

예를 들어 프로그래머는 다음과 같이 가정할 수 있다.

최종적으로 다음을 얻으려면:

이런 종류의 가정은 순진한 베이즈의 가정으로 알려져 있다. 말 사이의 독립성이 명백히 완전히 사실인 것은 아니라는 점에서 '사랑스럽다'는 것이다. 예를 들어, 그것은 단어 쌍의 외모가 고립된 외양보다 더 중요할 수 있다는 것을 완전히 무시한다. 그러나 프로그래머는 이 가설을 가정할 수 있으며, 얼마나 신뢰할 수 있고 효율적인지를 시험하기 위해 모델과 관련 추론을 개발할 수 있다.

파라메트릭 양식

공동 분포를 계산할 수 있으려면 프로그래머가 분해에 나타나는 N+ 분포를 지정해야 한다.

  1. 는 예를 들어 = = 0 에 의해 사전 정의된 것이다.
  2. 양식 ) 라플라스 계승 규칙을 사용하여 지정할 수 있다(이것은 이전에 볼 수 없었던 단어의 제로 주파수 문제에 대응하기 위한 유사 마운트 기반 스무딩 기법이다).

은(는) 비스팸 에 있는 n t h {\displaystyle 단어의 표시 수를 나타내며, 는 비 스팸 전자 메일의 총 수를 나타낸다. 마찬가지로 t 은(는) 에 nt h {\n^{ 단어의 출현 횟수를 나타내며 은 스팸 메일의 총 수를 나타낸다.

식별

The forms are not yet completely specified because the parameters , 는 아직 값이 없다.

이러한 매개변수의 식별은 일련의 분류된 전자우편을 일괄 처리하거나 사용자의 전자우편 분류를 사용하여 매개변수의 증분 업데이트를 통해 이루어질 수 있다.

두 가지 방법을 결합할 수 있다. 즉, 시스템은 일반 데이터베이스에서 발급된 이러한 매개변수의 초기 표준 값에서 시작할 수 있고, 그 다음, 일부 증분 학습은 각 개별 사용자에 대한 분류자를 맞춤화할 수 있다.

질문

프로그램에 대해 묻는 질문은 "이 텍스트에 어떤 단어가 표시되고 나타나지 않는지 알면서 주어진 텍스트가 스팸일 확률은 얼마인가?"이다. 다음을 통해 공식화할 수 있다.

다음과 같이 계산할 수 있다.

분모는 정규화 상수로 나타난다. 우리가 스팸을 다루고 있는지 결정하기 위해 그것을 계산할 필요는 없다. 예를 들어, 쉬운 방법은 다음과 같은 비율을 계산하는 것이다.

이 계산은 개의 제품만 필요하기 때문에 빠르고 쉽다.

베이시안 프로그램

베이시안 스팸 필터 프로그램은 다음과 같이 완전히 정의된다.

베이지안 필터, 칼만 필터 및 숨겨진 마르코프 모델

베이지안 필터(흔히 재귀적 베이지안 추정이라고 함)는 시간 진화하는 공정에 대한 일반적인 확률론적 모델이다. 예를 들어 Kalman 필터 또는 Hidden Markov 모델(HM)과 같은 수많은 모델이 이러한 일반적인 접근법의 특정 예들이다.

변수

  • 변수 ,… ,S 에서 까지의 시간 지평선에 있다고 간주되는 상태 변수의 시계열이다
  • 변수 ,… ,O 는 같은 지평선에 있는 관측 변수의 시계열이다.

분해

분해의 기초는 다음과 같다.

  • 모델, 전환 모델 또는 동적 모델이라 P t t - ){\ P S에서 t - 의 상태에서 t 시간 의 상태로의 전환을 공식화한다
  • ( t) S에 시스템이 상태 에 있을 때 시간 {\에서 관찰할 수 있는 것을 표현하는 관찰 모델이라고 한다
  • 시간 의 초기 상태 : P ) O .

파라메트릭 형식

파라메트릭 형식은 제한되지 않으며 서로 다른 선택으로 인해 잘 알려진 다른 모델이 나타난다. 바로 아래의 Kalman 필터와 Hidden Markov 모델을 참조하십시오.

질문

The typical question for such models is : what is the probability distribution for the state at time knowing the observations from instant to ?

가장 일반적인 경우는 과거 관측치를 알고 현재 를 검색하는k = {\인 베이시안 필터링이다.

그러나(> ) 는) 과거 관측치로부터 미래 상태를 추론하거나, 평활화 < 0) 을(를) 수행하여 그 순간 전후에 이루어진 관측치로부터 과거 상태를 복구할 수도 있다.

보다 복잡한 질문도 HMM 섹션에서와 같이 질문할 수 있다.

베이시안 필터= 0) 은 매우 흥미로운 재귀 속성을 가지고 있어 그 매력에 크게 기여한다. may be computed simply from with the following formula:

이 방정식의 또 다른 흥미로운 관점은 예측 단계와 추정 단계라는 두 가지 단계가 있다는 것을 고려하는 것이다.

  • 예측 단계 동안 동적 모델과 이전 순간의 상태 추정을 사용하여 상태를 예측한다.
  • 추정 단계 중 예측은 마지막 관측치를 사용하여 확인되거나 무효화된다.

베이시안 프로그램

칼만 필터

아주 잘 알려진 칼만 필터[6] 베이시안 필터의 특별한 경우다.

이 프로그램은 다음과 같은 베이시안 프로그램에 의해 정의된다.

  • 변수는 연속적이다.
  • The transition model and the observation model are both specified using Gaussian laws with means that are linear functions of the conditioning variables.

With these hypotheses and by using the recursive formula, it is possible to solve the inference problem analytically to answer the usual question. 이것은 Kalman 필터의 인기와 그들의 일상적인 애플리케이션의 수를 설명하는 매우 효율적인 알고리즘으로 이어진다.

뚜렷한 선형 전이 및 관찰 모델이 없을 때, 이러한 모델을 국소적으로 취급하는 것이 1차 테일러의 확장을 이용하여 여전히 가능한 경우가 많다. 이러한 일반화를 흔히 확장 칼만 필터라고 한다.

히든 마르코프 모델

히든 마르코프 모델(HM)은 베이시안 필터의 또 다른 인기 있는 전문화 모델이다.

이 프로그램은 다음과 같은 베이시안 프로그램에 의해 정의된다.

  • 변수는 별개로 처리된다.
  • The transition model and the observation model are

두 개 모두 확률 매트릭스를 사용하여 지정된다.

  • HMM에 대해 가장 자주 묻는 질문은 다음과 같다.

과거의 관측을 알면서 현 상태로 이어지는 가장 개연성 있는 일련의 상태는 무엇인가?

이 특별한 질문은 Viterbi 알고리즘이라고 불리는 구체적이고 매우 효율적인 알고리즘으로 대답될 수 있다.

바움-웰치 알고리즘은 MHMs를 위해 개발되었다.

적용들

학술적 지원

2000년 이후 베이시안 프로그래밍은 로봇공학 응용과 생명과학 모델을 개발하기 위해 사용되어 왔다.[7]

로보틱스

로봇 공학에서,bayesian 프로그램 자율적 robotics,[8][9][10][11][12]로봇 CADsystems,[13]에 driver-assistance systems,[14]로봇 팔 선행 제어, 모바일 robotics,[15][16]human-robot interaction,[17]human-vehicle 상호 작용(자율 운전자 모델 베이즈)[18][19][20][21][22]비디오 게임 아바타 프로그램과 traini 적용되었다.Ng[23]과 실시간 전략 게임(AI).[24]

생명과학

생명 과학에서,bayesian 프로그래밍은 시력에서 motion,[25]에서 도약 안구 움직임을 연구하려고visuo-vestibular interaction[26]모델이 되는 모양을 재건하기 위해;연설 인식과 제어에[27]과 인식과 계속됨 필적을 모형화 초기 연설 acquisition[28]과articulatory-acoustic 시스템의 출현;[29]공부하는 데 사용되었다.rol.[30]

패턴인식

베이시안 프로그램 학습은 잠재적인 응용 프로그램 음성 인식합성, 이미지 인식 및 자연 언어 처리를 가지고 있다. 구성성(부분으로부터 추상적 표현을 구축함), 인과성(부분으로부터 복잡성을 구축함) 및 학습(이전에 인식된 개념을 사용하여 새로운 개념의 창조를 용이하게 함)의 원리를 채용한다.[31]

가능성 이론

확률론적 접근방식(베이지안 프로그래밍뿐만 아니라)과 가능성 이론의 비교는 계속 논의되고 있다.

예를 들어 퍼지 집합,[32] 퍼지 논리[33]가능성 이론[34] 같은 가능성 이론은 불확실성을 모형화하는 확률의 대안이다. 그들은 불완전/불확실성 지식의 특정 측면을 모델링하기에 확률은 불충분하거나 불편하다고 주장한다.

확률의 방어는 주로 콕스의 정리에 기초하는데, 콕스의 정리는 불확실성이 존재하는 곳에서 이성적 추론에 관한 네 가지 가설에서 출발한다. 이 가설들을 만족시키는 유일한 수학적 틀이 확률론임을 증명한다. 논거는 확률 이외의 접근방식은 반드시 이러한 가정 중 하나와 그 침해의 가치를 침해한다는 것이다.

확률론적 프로그래밍

확률론적 프로그래밍의 목적은 프로그래밍 언어의 표현성에서 복잡성을 인코딩하는 데까지 이익을 얻으면서 불확실성을 다루기 위해 고전적 프로그래밍 언어의 범위를 확률론적 모델링(특히 베이시안 네트워크)과 통합하는 것이다.

확장 고전 프로그래밍 언어에는 Probabilistic Horn Fireding,[35] Independent Choice Logic,[36] PRISM,[37] Prolog의 확장을 제안하는 ProbLog에서 제안된 논리 언어가 포함된다.

또한 IBAL이나 CHURITE와 같은 기능 프로그래밍 언어(본질적으로 Lisp and Scheme)의 확장일 수도 있다. 기본 프로그래밍 언어는 BlOG와 PEATERIE 또는 CES와 FIGARO와 같은 보다 표준화된 언어처럼 객체 지향적일 수 있다.[38]

베이시안 프로그래밍의 목적은 다르다. Jaynes의 "논리로서의 가능성"에 대한 이론은 확률은 합리성, 계산, 프로그래밍의 완전한 이론이 재구성될 수 있는 위의 논리의 확장이자 대안이라고 주장한다.[1] 베이시안 프로그래밍은 불완전성과 불확실성을 고려한 확률에 기초한 프로그래밍 접근법으로 고전 언어를 대체하려고 시도한다.

베이시안적 표현력과 확률적 프로그래밍의 의미론적 표현력과의 정확한 비교는 공공연한 질문이다.

참고 항목

참조

  1. ^ a b Jaynes, E. T. (10 April 2003). Probability Theory: The Logic of Science. Cambridge University Press. ISBN 978-1-139-43516-1.
  2. ^ Bessiere, Pierre; Mazer, Emmanuel; Manuel Ahuactzin, Juan; Mekhnacha, Kamel (20 December 2013). Bayesian Programming. CRC Press. ISBN 978-1-4398-8032-6.
  3. ^ "Expression Graphs: Unifying Factor Graphs and Sum-Product Networks" (PDF). bcf.usc.edu.
  4. ^ "Probabilistic Modeling and Bayesian Analysis" (PDF). ocw.mit.edu.
  5. ^ "Bayesian Networks" (PDF). cs.brandeis.edu.
  6. ^ Kalman, R. E. (1960). "A New Approach to Linear Filtering and Prediction Problems". Journal of Basic Engineering. 82: 33–45. doi:10.1115/1.3662552. S2CID 1242324.
  7. ^ Bessière, Pierre; Laugier, Christian; Siegwart, Roland (15 May 2008). Probabilistic Reasoning and Decision Making in Sensory-Motor Systems. Springer Science & Business Media. ISBN 978-3-540-79006-8.
  8. ^ Lebeltel, O.; Bessière, P.; Diard, J.; Mazer, E. (2004). "Bayesian Robot Programming" (PDF). Advanced Robotics. 16 (1): 49–79. doi:10.1023/b:auro.0000008671.38949.43. S2CID 18768468.
  9. ^ Diard, J.; Gilet, E.; Simonin, E.; Bessière, P. (2010). "Incremental learning of Bayesian sensorimotor models: from low-level behaviours to large-scale structure of the environment" (PDF). Connection Science. 22 (4): 291–312. Bibcode:2010ConSc..22..291D. doi:10.1080/09540091003682561. S2CID 216035458.
  10. ^ Pradalier, C.; Hermosillo, J.; Koike, C.; Braillon, C.; Bessière, P.; Laugier, C. (2005). "The CyCab: a car-like robot navigating autonomously and safely among pedestrians". Robotics and Autonomous Systems. 50 (1): 51–68. CiteSeerX 10.1.1.219.69. doi:10.1016/j.robot.2004.10.002.
  11. ^ Ferreira, J.; Lobo, J.; Bessière, P.; Castelo-Branco, M.; Dias, J. (2012). "A Bayesian Framework for Active Artificial Perception" (PDF). IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics. 99 (2): 1–13. doi:10.1109/TSMCB.2012.2214477. PMID 23014760. S2CID 1808051.
  12. ^ Ferreira, J. F.; Dias, J. M. (2014). Probabilistic Approaches to Robotic Perception. Springer. ISBN 978-3-319-02005-1.
  13. ^ Mekhnacha, K.; Mazer, E.; Bessière, P. (2001). "The design and implementation of a Bayesian CAD modeler for robotic applications". Advanced Robotics. 15 (1): 45–69. CiteSeerX 10.1.1.552.3126. doi:10.1163/156855301750095578. S2CID 7920387.
  14. ^ Coué, C.; Pradalier, C.; Laugier, C.; Fraichard, T.; Bessière, P. (2006). "Bayesian Occupancy Filtering for Multitarget Tracking: an Automotive Application" (PDF). International Journal of Robotics Research. 25 (1): 19–30. doi:10.1177/0278364906061158. S2CID 13874685.
  15. ^ Vasudevan, S.; Siegwart, R. (2008). "Bayesian space conceptualization and place classification for semantic maps in mobile robotics". Robotics and Autonomous Systems. 56 (6): 522–537. CiteSeerX 10.1.1.149.4189. doi:10.1016/j.robot.2008.03.005.
  16. ^ Perrin, X.; Chavarriaga, R.; Colas, F.; Seigwart, R.; Millan, J. (2010). "Brain-coupled interaction for semi-autonomous navigation of an assistive robot". Robotics and Autonomous Systems. 58 (12): 1246–1255. doi:10.1016/j.robot.2010.05.010.
  17. ^ Rett, J.; Dias, J.; Ahuactzin, J-M. (2010). "Bayesian reasoning for Laban Movement Analysis used in human-machine interaction". International Journal of Reasoning-Based Intelligent Systems. 2 (1): 13–35. CiteSeerX 10.1.1.379.6216. doi:10.1504/IJRIS.2010.029812.
  18. ^ Möbus, C.; Eilers, M.; Garbe, H.; Zilinski, M. (2009), "Probabilistic and Empirical Grounded Modeling of Agents in (Partial) Cooperative Traffic Scenarios", in Duffy, Vincent G. (ed.), Digital Human Modeling (PDF), Lecture Notes in Computer Science, Volume 5620, vol. 5620, Second International Conference, ICDHM 2009, San Diego, CA, USA: Springer, pp. 423–432, doi:10.1007/978-3-642-02809-0_45, ISBN 978-3-642-02808-3{{citation}}: CS1 maint : 위치(링크)
  19. ^ Möbus, C.; Eilers, M. (2009), "Further Steps Towards Driver Modeling according to the Bayesian Programming Approach", in Duffy, Vincent G. (ed.), Digital Human Modeling, Lecture Notes in Computer Science, Volume 5620, vol. 5620, Second International Conference, ICDHM 2009, San Diego, CA, USA: Springer, pp. 413–422, CiteSeerX 10.1.1.319.2067, doi:10.1007/978-3-642-02809-0_44, ISBN 978-3-642-02808-3{{citation}}: CS1 maint : 위치(링크)
  20. ^ Eilers, M.; Möbus, C. (2010). "Lernen eines modularen Bayesian Autonomous Driver Mixture-of-Behaviors (BAD MoB) Modells" (PDF). In Kolrep, H.; Jürgensohn, Th. (eds.). Fahrermodellierung - Zwischen kinematischen Menschmodellen und dynamisch-kognitiven Verhaltensmodellen. Fortschrittsbericht des VDI in der Reihe 22 (Mensch-Maschine-Systeme). Düsseldorf, Germany: VDI-Verlag. pp. 61–74. ISBN 978-3-18-303222-8.
  21. ^ Eilers, M.; Möbus, C. (2011). "Learning the Relevant Percepts of Modular Hierarchical Bayesian Driver Models Using a Bayesian Information Criterion". In Duffy, V.G. (ed.). Digital Human Modeling. LNCS 6777. Heidelberg, Germany: Springer. pp. 463–472. doi:10.1007/978-3-642-21799-9_52. ISBN 978-3-642-21798-2.
  22. ^ Eilers, M.; Möbus, C. (2011). "Learning of a Bayesian Autonomous Driver Mixture-of-Behaviors (BAD-MoB) Model". In Duffy, V.G. (ed.). Advances in Applied Digital Human Modeling. LNCS 6777. Boca Raton, USA: CRC Press, Taylor & Francis Group. pp. 436–445. ISBN 978-1-4398-3511-1.
  23. ^ Le Hy, R.; Arrigoni, A.; Bessière, P.; Lebetel, O. (2004). "Teaching Bayesian Behaviours to Video Game Characters" (PDF). Robotics and Autonomous Systems. 47 (2–3): 177–185. doi:10.1016/j.robot.2004.03.012.
  24. ^ Synnaeve, G. (2012). Bayesian Programming and Learning for Multiplayer Video Games (PDF).
  25. ^ Colas, F.; Droulez, J.; Wexler, M.; Bessière, P. (2008). "A unified probabilistic model of the perception of three-dimensional structure from optic flow". Biological Cybernetics. 97 (5–6): 461–77. CiteSeerX 10.1.1.215.1491. doi:10.1007/s00422-007-0183-z. PMID 17987312. S2CID 215821150.
  26. ^ Laurens, J.; Droulez, J. (2007). "Bayesian processing of vestibular information". Biological Cybernetics. 96 (4): 389–404. doi:10.1007/s00422-006-0133-1. PMID 17146661. S2CID 18138027.
  27. ^ Colas, F.; Flacher, F.; Tanner, T.; Bessière, P.; Girard, B. (2009). "Bayesian models of eye movement selection with retinotopic maps" (PDF). Biological Cybernetics. 100 (3): 203–214. doi:10.1007/s00422-009-0292-y. PMID 19212780. S2CID 5906668.
  28. ^ Serkhane, J.; Schwartz, J-L.; Bessière, P. (2005). "Building a talking baby robot A contribution to the study of speech acquisition and evolution" (PDF). Interaction Studies. 6 (2): 253–286. doi:10.1075/is.6.2.06ser.
  29. ^ Moulin-Frier, C.; Laurent, R.; Bessière, P.; Schwartz, J-L.; Diard, J. (2012). "Adverse conditions improve distinguishability of auditory, motor and percep-tuo-motor theories of speech perception: an exploratory Bayesian modeling study" (PDF). Language and Cognitive Processes. 27 (7–8): 1240–1263. doi:10.1080/01690965.2011.645313. S2CID 55504109.
  30. ^ Gilet, E.; Diard, J.; Bessière, P. (2011). Sporns, Olaf (ed.). "Bayesian Action–Perception Computational Model: Interaction of Production and Recognition of Cursive Letters". PLOS ONE. 6 (6): e20387. Bibcode:2011PLoSO...620387G. doi:10.1371/journal.pone.0020387. PMC 3106017. PMID 21674043.
  31. ^ "New algorithm helps machines learn as quickly as humans". www.gizmag.com. 2016-01-22. Retrieved 2016-01-23.
  32. ^ Zadeh, L.A. (June 1965). "Fuzzy sets". Information and Control. San Diego. 8 (3): 338–353. doi:10.1016/S0019-9958(65)90241-X. ISSN 0019-9958. Wikidata Q25938993.
  33. ^ Zadeh, L.A. (September 1975). "Fuzzy logic and approximate reasoning". Synthese. Springer. 30 (3–4): 407–428. doi:10.1007/BF00485052. ISSN 0039-7857. OCLC 714993477. S2CID 46975216. Wikidata Q57275767.
  34. ^ Dubois, D.; Prade, H. (2001). "Possibility Theory, Probability Theory and Multiple-Valued Logics: A Clarification" (PDF). Ann. Math. Artif. Intell. 32 (1–4): 35–66. doi:10.1023/A:1016740830286. S2CID 10271476.
  35. ^ Poole, D. (1993). "Probabilistic Horn abduction and Bayesian networks". Artificial Intelligence. 64: 81–129. doi:10.1016/0004-3702(93)90061-F.
  36. ^ Poole, D. (1997). "The Independent Choice Logic for modelling multiple agents under uncertainty". Artificial Intelligence. 94 (1–2): 7–56. doi:10.1016/S0004-3702(97)00027-1.
  37. ^ Sato, T.; Kameya, Y. (2001). "Parameter learning of logic programs for symbolic-statistical modeling" (PDF). Journal of Artificial Intelligence Research. 15 (2001): 391–454. arXiv:1106.1797. Bibcode:2011arXiv1106.1797S. doi:10.1613/jair.912. S2CID 7857569. Archived from the original (PDF) on 2014-07-12. Retrieved 2015-10-18.
  38. ^ 깃허브피가로

추가 읽기

외부 링크