이론 컴퓨터 공학

Theoretical computer science
튜링 기계의 예술적 표현입니다.튜링 기계는 일반적인 컴퓨팅 장치를 모델링하는 데 사용됩니다.

이론 컴퓨터 과학(TCS)은 계산 이론, 람다 미적분, 유형 이론과 같은 컴퓨터 과학의 수학적 측면에 초점을 맞춘 일반 컴퓨터 과학과 수학의 하위 집합이다.

이론적인 영역을 정확히 제한하기는 어렵다.알고리즘과 계산 이론에 관한 ACM의 특별 이익 그룹(SIGACT)은 다음과 같은 [1]설명을 제공합니다.

TCS는 알고리즘, 데이터 구조, 계산 복잡도, 병렬분산 계산, 확률적 계산, 양자 계산, 오토마타 이론, 정보 이론, 암호학, 프로그램 의미론 검증, 알고리즘 게임 이론, 기계 학습, 계산 생물학, 계산학을 포함한 다양한 주제를 다룬다.nal 경제학, 계산 기하학, 그리고 계산수 이론과 대수학.이 분야의 연구는 종종 수학적 기술과 엄격함을 강조하는 것으로 구별된다.

역사

논리적 추론과 수학적 증명은 이전에 존재했지만, 1931년 쿠르트 괴델은 그의 불완전성 정리로 증명되거나 반증될 수 있는 진술에는 근본적인 한계가 있다는 것을 증명했다.

정보 이론은 1948년 클로드 샤논에 의해 수학적인 의사소통 이론과 함께 그 분야에 추가되었다.같은 10년 동안, 도널드 헵은 뇌에 학습의 수학적 모델을 도입했다.이 가설을 뒷받침하는 생물학적 데이터를 일부 수정하여 뉴럴 네트워크(neural network)와 병렬 분산 처리(parallel distributed processing) 분야가 확립되었다.1971년 Stephen Cook과 Leonid Levin은 독립적으로 작업하면서 계산 복잡도[citation needed] 이론의 획기적인 결과인 NP-완전인 실질적으로 관련된 문제가 존재한다는 것을 증명했다.

20세기 초 양자역학의 발달과 함께 수학 연산이 입자파 함수 전체에 대해 수행될 수 있다는 개념이 생겼다.즉, 여러 상태의 함수를 동시에 계산할 수 있습니다.이로 인해 20세기 후반 양자 컴퓨터의 개념은 1990년대 Peter Shor가 그러한 방법을 사용하여 다항식 시간에 많은 수를 인수분해할 수 있다는 것을 보여주면서 생겨났습니다.이 방법이 구현되면 RSA_(암호 시스템)와 같은 일부 최신 공개암호 알고리즘이 [citation needed]불안정해질 수 있습니다.

현대의 이론 컴퓨터 과학 연구는 이러한 기본적인 발전에 기초하고 있지만, 다음과 같이 제기된 다른 많은 수학 및 학제 간 문제를 포함합니다.

DFAexample.svg Elliptic curve simple.png 6n-graf.svg Wang tiles.svg P = NP?
수리논리 오토마타 이론 수론 그래프 이론 계산가능성 이론 계산 복잡도 이론
GNITRW Commutative diagram for morphism.svg SimplexRangeSearching.svg TSP Deutschland 3.png Blochsphere.svg
암호화 유형 이론 범주론 계산기하학 조합 최적화 양자 컴퓨팅 이론

토픽

알고리즘

알고리즘은 계산을 위한 단계별 절차입니다.알고리즘은 계산, 데이터 처리자동 추론에 사용됩니다.

알고리즘은 함수[4]계산하기 위한 잘 정의된[3] 명령의 유한[2] 목록으로 표현되는 효과적인 방법입니다.명령어는 첫 번째 상태와 첫 번째 입력(아마도 [5]빈 상태)에서 시작하여 실행되었을 때 한정된[6] 수의 명확하게 정의된 연속 상태를 거쳐 최종적으로 [7]"출력"을 생성하고 최종 종료 상태로 끝나는 계산을 기술합니다.어떤 상태에서 다음 상태로의 이행은 반드시 확정적인 것은 아닙니다.랜덤화 알고리즘이라고 불리는 일부 알고리즘에는 랜덤 [8]입력이 포함되어 있습니다.

오토마타 이론

오토마타 이론은 추상적기계와 오토마타, 그리고 그것들을 사용하여 해결할 수 있는 계산상의 문제에 대한 연구이다.이것은 이산 수학(수학컴퓨터 과학의 한 분야) 아래에서의 이론 컴퓨터 과학 이론입니다.오토마타는 그리스어로 "자기 작용"을 뜻하는 ααμαα에서 유래했다.

Automata Theory는 계산(또는 함수/프로세스)의 중간 단계 없이 또는 중간 단계에 있는 입력 및 출력 프로세스를 논리적으로 이해하는 데 도움이 되는 자체 운영 가상 머신에 대한 연구입니다.

부호화 이론

코딩 이론은 코드의 특성과 특정 애플리케이션에 대한 적합성에 대한 연구입니다.코드는 데이터 압축, 암호화, 오류 수정 및 최근에는 네트워크 코딩에도 사용됩니다.코드는 효율적이고 신뢰할 수 있는 데이터 전송 방법을 설계하기 위해 정보 이론, 전기 공학, 수학컴퓨터 과학 등 다양한 과학 분야에서 연구됩니다.여기에는, 통상, 용장성의 삭제와 송신 데이터의 에러의 수정(또는 검출)이 포함됩니다.

계산생물학

계산생물학은 생물학적,[9] 행동적, 사회적 시스템의 연구에 데이터 분석적, 이론적 방법, 수학적 모델링 및 계산 시뮬레이션 기술의 개발과 적용을 포함한다.이 분야는 컴퓨터 과학, 응용 수학, 애니메이션, 통계학, 생화학, 화학, 생물 물리학, 분자 생물학, 유전학, 유전학, 유전학, 생태학, 진화학, 해부학, 신경 과학 [10]시각화의 기초를 폭넓게 정의하고 있습니다.

계산생물학은 컴퓨터를 만들기 위해 생명공학과 생물학사용하는 컴퓨터 공학과 컴퓨터 공학의 하위 분야인 생물 계산학과 다르지만, 생물학적 데이터를 저장하고 처리하기 위해 컴퓨터를 사용하는 학문 간 과학인 생물 정보학과 유사합니다.

계산 복잡도 이론

계산 복잡도 이론은 계산 문제를 고유의 난이도에 따라 분류하고 그 클래스들을 서로 연관시키는 데 초점을 맞춘 계산 이론의 한 분야이다.계산 문제는 원칙적으로 컴퓨터에 의해 풀릴 수 있는 태스크로 이해되며, 이는 알고리즘과 같은 수학적 단계를 기계적으로 적용함으로써 문제를 해결할 수 있다고 말하는 것과 같다.

알고리즘이 무엇을 사용하든, 그 솔루션에 상당한 리소스가 필요한 경우, 문제는 본질적으로 어려운 것으로 간주됩니다.이 이론은 이러한 문제들을 연구하기 위해 수학적인 계산 모델을 도입하고 시간과 저장과 같은 그것들을 해결하기 위해 필요한 자원의 양을 수량화함으로써 이러한 직관을 공식화한다.통신량(통신 복잡도에 사용), 회선 내 게이트 수(회선 복잡도에 사용), 프로세서 수(병렬 컴퓨팅에 사용)와 같은 다른 복잡도 측정도 사용됩니다.계산 복잡도 이론의 역할 중 하나는 컴퓨터가 할 수 있는 것과 할 수 없는 에 대한 실질적인 한계를 결정하는 것입니다.

계산기하학

계산기하학은 기하학의 관점에서 기술할 수 있는 알고리즘 연구에 전념하는 컴퓨터 과학의 한 분야입니다.일부 순수 기하학적 문제는 계산 기하학 알고리즘의 연구에서 발생하며, 이러한 문제는 계산 기하학의 일부로 간주됩니다.

컴퓨터 지오메트리의 한 분야로서의 개발의 주된 추진력은 컴퓨터 그래픽과 컴퓨터 지원 설계 및 제조(CAD/CAM)의 진보였지만, 컴퓨터 지오메트리의 많은 문제는 본질적으로 고전적이고 수학적 시각화에서 비롯될 수 있습니다.

컴퓨터 지오메트리의 다른 중요한 응용 프로그램에는 로봇공학(동작계획 및 가시성 문제), 지리정보시스템(GIS)(기하학적 위치 및 검색, 경로계획), 집적회로설계(IC 지오메트리 설계 및 검증), 컴퓨터 지원 엔지니어링(CAE)(메쉬 생성), 컴퓨터 비전(3D 재구성) 등이 있다.동작).

컴퓨터 학습 이론

기계학습의 이론적 결과는 주로 지도학습이라고 불리는 귀납적 학습의 유형을 다룬다.지도 학습에서 알고리즘에는 유용한 방법으로 라벨이 지정된 샘플이 제공됩니다.예를 들어, 표본은 버섯에 대한 설명이고 레이블은 버섯이 먹을 수 있는지 여부일 수 있습니다.알고리즘은 이전에 라벨이 붙여진 샘플을 가져와 분류자를 유도하기 위해 사용합니다.이 분류기는 알고리즘에서 이전에 볼 수 없었던 샘플을 포함한 샘플에 라벨을 할당하는 함수입니다.지도 학습 알고리즘의 목표는 새로운 샘플에서 발생하는 실수 수를 최소화하는 것과 같은 성능의 일부 측정을 최적화하는 것입니다.

계산수 이론

알고리즘 숫자 이론으로도 알려진 계산수 이론은 숫자 이론 계산수행하기 위한 알고리즘의 연구입니다.이 분야에서 가장 잘 알려진 문제는 정수 인수분해입니다.

암호화

암호학은 제삼자(적수)[11]가 존재하는 상황에서 안전한 통신을 위한 기술을 연습하고 연구하는 것입니다.보다 일반적으로, 공격자의[12] 영향을 극복하고 데이터 기밀성, 데이터 무결성, 인증거부 [13]방지와 같은 정보 보안의 다양한 측면과 관련된 프로토콜을 구축하고 분석하는 것입니다.현대 암호학은 수학, 컴퓨터 과학, 전기 공학 분야와 교차한다.암호학에는 ATM 카드, 컴퓨터 패스워드, 전자상거래 이 포함된다.

현대의 암호화는 수학 이론과 컴퓨터 과학 실습을 기반으로 합니다.암호 알고리즘은 계산 경도 가정을 중심으로 설계되어 있기 때문에 어떤 상대도 이러한 알고리즘을 실제로 깨기 어렵습니다.이러한 시스템을 깨는 것은 이론적으로는 가능하지만, 알려진 실제적인 수단으로는 불가능하다.따라서 이러한 스킴은 계산적으로 안전하다고 불립니다.예를 들어 정수 인수분해 알고리즘의 개선과 고속 컴퓨팅 기술 등 이론적인 진보가 이러한 솔루션을 지속적으로 적용할 필요가 있습니다.무제한의 컴퓨팅 능력(를 들어 일회성 패드)을 사용하더라도 이론적으로 안전한 정보(이론적으로 안전한 시스템)가 존재하지만 이론적으로는 깨지기 쉽지만 계산상 안전한 최고의 메커니즘보다 구현이 더 어렵습니다.

데이터 구조

데이터 구조는 데이터를 효율적으로 [14][15]사용할 수 있도록 컴퓨터 내에서 데이터를 구성하는 특별한 방법입니다.

다양한 종류의 데이터 구조가 다양한 종류의 애플리케이션에 적합하며, 일부는 특정 작업에 매우 특화되어 있습니다.예를 들어 데이터베이스는 적은 비율의 데이터 검색에 B-트리 인덱스를 사용하고 컴파일러와 데이터베이스는 동적 해시 테이블을 검색 테이블로 사용합니다.

데이터 구조는 대규모 데이터베이스인터넷 인덱싱 서비스와 같은 용도로 많은 양의 데이터를 효율적으로 관리할 수 있는 수단을 제공합니다.일반적으로 효율적인 데이터 구조는 효율적인 알고리즘을 설계하는 데 중요합니다.일부 정식 설계 방법 및 프로그래밍 언어는 알고리즘이 아닌 데이터 구조를 소프트웨어 설계의 핵심 구성 요소로 강조합니다.메인 메모리 및 2차 메모리 양쪽에 격납되어 있는 데이터에 대해서, 격납 및 검색을 실시할 수 있다.

분산계산

분산 컴퓨팅은 분산 시스템을 연구합니다.분산 시스템은 네트워크로 연결된 컴퓨터에 위치한 컴포넌트가 메시지를 [16]전달함으로써 통신하고 동작을 조정하는 소프트웨어 시스템입니다.공통의 목표를 달성하기 위해 구성요소는 서로 상호 작용합니다.분산 시스템의 3가지 중요한 특징은 컴포넌트의 동시성, 글로벌클럭의 결여, [16]컴포넌트의 독립적 장애입니다.분산 시스템의 예는 SOA 기반 시스템에서 대규모 멀티플레이어 온라인 게임, 피어 투 피어 애플리케이션, 그리고 Bitcoin과 같은 블록 체인 네트워크에 이르기까지 다양합니다.

분산 시스템에서 실행되는 컴퓨터 프로그램분산 프로그램이라고 하며, 분산 프로그래밍은 이러한 [17]프로그램을 작성하는 과정입니다.메시지 전달 메커니즘에는 RPC와 같은 커넥터나 메시지큐 등 많은 대안이 있습니다.분산 시스템의 중요한 목표이자 과제는 위치의 투명성입니다.

정보 기반의 복잡성

정보 기반 복잡도(IBC)는 지속적인 문제에 대한 최적의 알고리즘과 계산 복잡성을 연구합니다.IBC는 경로 적분, 편미분 방정식, 상미분 방정식 시스템, 비선형 방정식, 적분 방정식, 고정점 및 매우 고차원 적분 등의 연속적인 문제를 연구해왔다.

형식적인 방법

정식 방법은 소프트웨어 및 하드웨어 [18]시스템의 사양, 개발 및 검증을 위한 특정 종류의 수학 기반 기술입니다.소프트웨어 및 하드웨어 설계를 위한 공식 방법의 사용은 다른 공학 분야와 마찬가지로 적절한 수학적 분석을 수행하는 것이 [19]설계의 신뢰성과 견고성에 기여할 수 있다는 기대에 의해 동기 부여된다.

형식 방법은 논리 계산, 형식 언어, 오토마타 이론 및 프로그램 의미론 등 상당히 다양한 이론 컴퓨터 과학 기초의 적용으로 가장 잘 설명되며, 소프트웨어와 하드웨어 사양 및 [20]검증의 문제에 대한 형식 시스템 및 대수 데이터 유형적용됩니다.

정보 이론

정보이론정보정량화와 관련된 응용 수학, 전기 공학, 컴퓨터 과학의 한 분야이다.정보 이론은 클로드 E에 의해 개발되었다. Shannon은 데이터 압축과 같은 신호 처리 작업과 데이터의 신뢰성 높은 저장 및 통신에 대한 근본적인 한계를 발견합니다.그것의 처음 이후 이것은 많은 다른 지역에서 응용 프로그램을 찾으려면, 통계적 추론, 자연 언어 처리, 암호, 분자 코드의 evolution[22]과 function[23]neurobiology,[21], 모델 선택에 statistics,[24]열 physics,[25]양자 컴퓨팅, 언어학, 표절 detection,[26]패턴 등을 넓혔다. 인식, 이상 드탐지기타 데이터 [27]분석 형식입니다.

정보 이론의 기본 주제에는 무손실 데이터 압축(ZIP 파일 등), 무손실 데이터 압축(MP3JPEG 등), 채널 코딩(DSL 등)이 있다.그 분야는 수학, 통계학, 컴퓨터 공학, 물리학, 신경생물학, 전기 공학이 교차하는 지점에 있다.그 영향은 깊은 우주로의 보이저 미션의 성공, 콤팩트 디스크의 발명, 휴대 전화의 실현 가능성, 인터넷의 발전, 언어학과 인간의 지각의 연구, 블랙홀에 대한 이해, 그리고 많은 다른 분야에 결정적이었다.정보 이론의 중요한 하위 분야는 소스 코딩, 채널 코딩, 알고리즘 복잡도 이론, 알고리즘 정보 이론, 정보 이론 보안 및 정보의 측정입니다.

기계 학습

기계학습은 데이터에서 [28]배울 수 있는 알고리즘의 구축과 연구를 다루는 과학 분야입니다.이러한 알고리즘은 명시적으로 프로그래밍된 명령만 따르는 것이 아니라 입력을 기반으로[29]: 2 모델을 구축하고 이를 사용하여 예측 또는 결정을 내리는 방식으로 작동합니다.

기계학습은 컴퓨터 과학과 통계학의 하위 분야로 간주될 수 있다.이는 인공지능최적화밀접한 관련이 있으며, 방법, 이론 및 응용 분야를 현장에 전달합니다.머신러닝은 명확한 규칙 기반 알고리즘을 설계하고 프로그래밍할 수 없는 컴퓨팅 태스크에 채용됩니다.예를 들어 스팸 필터링, 광학 문자 인식(OCR),[30] 검색 엔진 및 컴퓨터 비전 등이 있습니다.기계 학습은 때때로 데이터 [31]마이닝과 결합되지만, 이는 탐색적 데이터 [32]분석에 더 초점을 맞춘다.기계 학습과 패턴 인식은 "같은 분야의 [29]: vii 두 가지 측면으로 볼 수 있다."

병렬 계산

병렬 컴퓨팅은 많은 계산을 [33]동시에 수행하는 계산의 한 형태이며, 큰 문제를 작은 문제로 분할하여 "병렬하게" 해결할 수 있다는 원칙에 따라 작동합니다.병렬 컴퓨팅에는 비트 수준, 명령 수준, 데이터태스크 병렬 처리 등 여러 가지 형태가 있습니다.병렬은 주로 고성능 컴퓨팅에 오랫동안 사용되어 왔지만, 주파수 [34]확장을 방해하는 물리적 제약 때문에 최근 병렬 컴퓨팅에 대한 관심이 높아지고 있습니다.최근 몇 [35]년 동안 컴퓨터의 소비전력(그리고 그에 따른 발열)이 관심사가 되면서 병렬 컴퓨팅은 주로 멀티코어 [36]프로세서의 형태로 컴퓨터 아키텍처에서 지배적인 패러다임이 되었습니다.

병렬 컴퓨터 프로그램은 순차적인 [37]프로그램보다 작성하기가 더 어렵습니다. 왜냐하면 동시 실행은 잠재적인 소프트웨어 버그의 몇 가지 새로운 클래스를 도입하기 때문입니다.이러한 버그는 인종 조건이 가장 일반적입니다.서로 다른 서브태스크 간의 통신과 동기화는 일반적으로 프로그램 성능을 향상시키는 데 가장 큰 걸림돌 중 하나입니다.

병렬화의 결과로 가능한 단일 프로그램의 최대 속도 향상을 Amdahl의 법칙이라고 합니다.

프로그램 의미론

프로그래밍 언어 이론에서 의미론은 프로그래밍 언어의 의미에 대한 엄격한 수학적 연구와 관련된 분야이다.특정 프로그래밍 언어로 정의된 구문적으로 합법적인 문자열의 의미를 평가하여 관련된 계산을 보여줍니다.구문적으로 부정한 문자열에 대한 평가가 이루어지는 경우, 결과는 비연산이 됩니다.의미론은 특정 언어로 프로그램을 실행할 때 컴퓨터가 수행하는 프로세스를 설명합니다.이것은 프로그램의 입력과 출력의 관계를 설명하거나 프로그램이 특정 플랫폼에서 어떻게 실행될지에 대한 설명을 통해 계산 모델을 생성함으로써 나타낼 수 있습니다.

양자계산

양자 컴퓨터는 데이터 [38]연산수행하기 위해 중첩얽힘과 같은 양자 기계 현상을 직접 사용하는 계산 시스템입니다.양자 컴퓨터는 트랜지스터에 기반한 디지털 컴퓨터와 다르다.디지털 컴퓨터가 데이터를 2진수(비트)로 부호화해야 하는 반면, 양자 계산은 항상 두 개의 확실한 상태(0 또는 1) 중 하나에 있는 반면, 양자 계산은 상태의 중첩에 있을 수 있는 큐비트(양자 비트)를 사용합니다.이론적인 모델은 범용 양자 컴퓨터라고도 알려진 양자 튜링 기계이다.양자 컴퓨터는 비결정론적확률론적 컴퓨터와 이론적 유사성을 공유합니다. 한 가지 예는 동시에 둘 이상의 상태에 있는 능력입니다.양자컴퓨팅 분야는 1980년 유리[39] 마닌[40][41]1982년 리처드 파인먼에 의해 처음 소개되었습니다.스핀을 양자 비트로 하는 양자 컴퓨터도 1968년에 [42]양자 시공간으로 사용하기 위해 공식화되었다.

2014년 현재, 양자 컴퓨팅은 아직 초기 단계이지만, 극히 적은 수의 큐비트로 [43]양자 컴퓨팅 연산을 실행하는 실험이 실시되고 있다.실용적이고 이론적인 연구는 계속되고 있으며, 많은 국가 정부 및 군사 자금 조달 기관은 [44]암호 해독과 같은 민간 및 국가 안보 목적의 양자 컴퓨터 개발을 위한 양자 컴퓨팅 연구를 지원하고 있습니다.

심볼 계산

기호 계산 또는 대수 계산이라고도 불리는 컴퓨터 대수학은 수학적 표현과 다른 수학적 대상을 조작하기 위한 알고리즘소프트웨어의 연구와 개발을 참조하는 과학 분야이다.비록, 적절하게 말하면, 컴퓨터 대수는 과학 컴퓨팅의 하위 분야여야 하지만, 그것들은 일반적으로 구별되는 분야로 간주됩니다. 왜냐하면 과학적 계산은 보통 대략적인 부동 소수점 숫자와 함께 숫자 계산에 기초하는 반면, 기호 계산은 변수를 포함하는 표현으로 정확한 계산을 강조하기 때문입니다.는 주어진 값이 없으므로 기호로 조작됩니다(심볼 계산의 이름을 사용).

기호 계산을 수행하는 소프트웨어 애플리케이션은 컴퓨터 대수 시스템이라고 불리며, 적어도 컴퓨터에서 수학적 데이터를 표현하는 방법, 사용자 프로그래밍 언어(통상 구현에 사용되는 언어와는 다름), 데디카를 포함하는 주요 애플리케이션의 복잡성을 암시하는 용어 시스템이다.ted memory manager, 수학식 입출력을 위한 사용자 인터페이스, 식 단순화, 체인 규칙을 사용한 미분, 다항식 인수분해, 무한 통합 등과 같은 정규 연산을 수행하기 위한 많은 루틴 세트.

대규모 통합

초대형 집적회로(VLSI)는 수천 개의 트랜지스터를 하나의 칩으로 결합하여 집적회로(IC)를 만드는 과정입니다.VLSI는 복잡한 반도체통신 기술이 개발되던 1970년대에 시작되었다.마이크로프로세서는 VLSI 디바이스.VLSI 기술이 도입되기 전에는 대부분의 IC는 수행할 수 있는 기능이 제한되어 있었습니다.전자회로CPU, ROM, RAM 및 기타 글루 로직으로 구성될 수 있습니다.VLSI를 통해 IC 제조사는 이 모든 회로를 하나의 칩에 추가할 수 있습니다.

단체들

저널 및 뉴스레터

회의

「 」를 참조해 주세요.

메모들

  1. ^ "SIGACT". Retrieved 2017-01-19.
  2. ^ "예를 들어, 어떤 고전 수학 알고리즘도 한정된 수의 영어 단어로 설명할 수 있습니다."Rogers, Hartley Jr. (1967). Theory of Recursive Functions and Effective Computability. McGraw-Hill. 페이지 2
  3. ^ 알고리즘을 실행하는 에이전트에 대해 잘 정의되어 있습니다.「명령어에 반응해 계산을 실행할 수 있는 컴퓨팅 에이전트가 있습니다」(Rogers 1967, 페이지 2).
  4. ^ "알고리즘은 (정수에 대해 선택된 일부 표기법에 대해) 함수를 계산하는 절차입니다. 이 제한은 일반성을 잃지 않습니다." (Rogers 1967, 페이지 1). (Rogers 1967, p.1)
  5. ^ "알고리즘은 0개 이상의 입력, 즉 알고리즘이 시작되기 전에 처음에 주어진 양을 가지고 있다." (Knuth 1973:5)
  6. ^ "최종성이 결여된 경우를 제외하고 알고리즘의 모든 특성을 갖는 절차는 '계산법'(Knuth 1973:5)이라고 할 수 있다."
  7. ^ "알고리즘은 하나 이상의 출력, 즉 입력과 특정 관계가 있는 양을 가지고 있다"(Knuth 1973:5)
  8. ^ 랜덤 내부 공정(입력 제외)이 있는 공정이 알고리즘인지 여부는 논란의 여지가 있습니다.Rogers는 다음과 같이 말한다. "계산은 연속적인 방법이나 아날로그 장치를 사용하지 않고 이산적인 단계적 방식으로 수행된다……. 무작위 방법이나 장치(예를 들어 주사위)에 의존하지 않고 결정적으로 진행된다"(Rogers 1967, 페이지 2)
  9. ^ "NIH working definition of bioinformatics and computational biology" (PDF). Biomedical Information Science and Technology Initiative. 17 July 2000. Archived from the original (PDF) on 5 September 2012. Retrieved 18 August 2012.
  10. ^ "About the CCMB". Center for Computational Molecular Biology. Retrieved 18 August 2012.
  11. ^ Rivest, Ronald L. (1990). "Cryptology". In J. Van Leeuwen (ed.). Handbook of Theoretical Computer Science. Vol. 1. Elsevier.
  12. ^ Bellare, Mihir; Rogaway, Phillip (21 September 2005). "Introduction". Introduction to Modern Cryptography. p. 10.
  13. ^ Menezes, A. J.; van Oorschot, P. C.; Vanstone, S. A. (1997). Handbook of Applied Cryptography. ISBN 978-0-8493-8523-0.
  14. ^ Paul E. Black(ed.), 알고리즘데이터 구조 사전데이터 구조 항목. 미국 국립 표준 기술 연구소 2004년 12월 15일 온라인 버전 2009년 5월 21일에 액세스.
  15. ^ 브리태니커 백과사전(2009) 온라인 엔트리의 엔트리 데이터 구조는 2009년 5월 21일에 액세스 됩니다.
  16. ^ a b Coulouris, George; Jean Dollimore; Tim Kindberg; Gordon Blair (2011). Distributed Systems: Concepts and Design (5th ed.). Boston: Addison-Wesley. ISBN 978-0-132-14301-1.
  17. ^ Andrews(2000) 오류:: (Dolev(2000) 오류:: Ghosh (2007) 오류:: ( 페이지 10.
  18. ^ R. W. Butler (2001-08-06). "What is Formal Methods?". Retrieved 2006-11-16.
  19. ^ C. Michael Holloway. "Why Engineers Should Consider Formal Methods" (PDF). 16th Digital Avionics Systems Conference (27–30 October 1997). Archived from the original (PDF) on 16 November 2006. Retrieved 2006-11-16. {{cite journal}}:Cite 저널 요구 사항 journal=(도움말)
  20. ^ 모닌, 페이지 3-4
  21. ^ F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code. The MIT press. ISBN 978-0262681087.
  22. ^ Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001-12-14). "Bayesian Inference of Phylogeny and Its Impact on Evolutionary Biology". Science. American Association for the Advancement of Science (AAAS). 294 (5550): 2310–2314. Bibcode:2001Sci...294.2310H. doi:10.1126/science.1065889. ISSN 0036-8075. PMID 11743192. S2CID 2138288.
  23. ^ 랜도 알리크메츠, 와이스 W. 워서맨, 에이미 허친슨, 필립 스몰우드, 제레미 나탄스, 피터 K.로건, 토마스 D. Schneider, Michael Dean(1998) ABCR 유전자 조직: 프로모터와 스플라이스 접합 배열 분석, Gene 215:1, 111-122
  24. ^ Burnham, K. P. and Anderson D. R. (2002) 모델 선택 및 다중 모델 추론: 실용 정보-이론 접근법, 제2판(뉴욕 스프링거 과학) ISBN 978-0-387-95364-9.
  25. ^ Jaynes, E. T. (1957-05-15). "Information Theory and Statistical Mechanics". Physical Review. American Physical Society (APS). 106 (4): 620–630. Bibcode:1957PhRv..106..620J. doi:10.1103/physrev.106.620. ISSN 0031-899X.
  26. ^ Charles H. Bennett, Ming Li, Bin Ma(2003) 연쇄편지와 진화사, Scientific American 288:6, 76-81
  27. ^ David R. Anderson (November 1, 2003). "Some background on why people in the empirical sciences may want to better understand the information-theoretic methods" (PDF). Archived from the original (PDF) on July 23, 2011. Retrieved 2010-06-23.
  28. ^ Ron Kovahi; Foster Provost (1998). "Glossary of terms". Machine Learning. 30: 271–274. doi:10.1023/A:1007411609915.
  29. ^ a b C. M. Bishop (2006). Pattern Recognition and Machine Learning. Springer. ISBN 978-0-387-31073-2.
  30. ^ Wernick, Yang, Brankov, Yourganov 및 Strother, 의료영상 기계학습, IEEE Signal Processing Magazine, vol. 27, no. 4, 2010년 7월, 페이지 25-38
  31. ^ Mannila, Heikki (1996). Data mining: machine learning, statistics, and databases. Int'l Conf. Scientific and Statistical Database Management. IEEE Computer Society.
  32. ^ Friedman, Jerome H. (1998). "Data Mining and Statistics: What's the connection?". Computing Science and Statistics. 29 (1): 3–9.
  33. ^ Gottlieb, Allan; Almasi, George S. (1989). Highly parallel computing. Redwood City, Calif.: Benjamin/Cummings. ISBN 978-0-8053-0177-9.
  34. ^ S.V. Adve 등 (2008년 11월)"일리노이주 병렬 컴퓨팅 연구: UPCRC 어젠다' 2008-12-09년Wayback Machine에서 아카이브(PDF).병렬@일리노이, 일리노이 대학교 어바나-샴페인입니다"이러한 성능상의 이점을 얻기 위한 주요 기술인 클럭 주파수의 증가와 보다 스마트하지만 복잡해지는 아키텍처가 현재 이른바 파워월(power wall)에 부딪히고 있습니다.컴퓨터 업계에서는 미래의 성능 향상은 하나의 코어를 고속화하는 것이 아니라 다이에 탑재된 프로세서(또는 코어)의 수를 늘리는 것이 가장 큰 원인이라고 인식하고 있습니다."
  35. ^ 아사노비치 외낡은[통념]:전력은 무료이지만 트랜지스터는 비싸다.새로운[통념]은 전력은 비싸지만 트랜지스터는 공짜라는 것입니다.
  36. ^ 아사노비치, Krste 등(2006년 12월 18일).'병렬 컴퓨팅 연구의 풍경: 버클리에서의 견해'(PDF).캘리포니아 대학교 버클리.기술 보고서 번호. UCB/EECS-2006-183. "구 [통념]:클럭 주파수의 증가는 프로세서의 성능을 향상시키는 주요 방법입니다.새로운 [통념]:병렬화를 늘리는 것이 프로세서의 성능을 향상시키는 주요 방법입니다.일반적으로 클럭 스피드가 높을수록 좋다고 생각하는 기업 인텔의 대표자들도 클럭 스피드를 극대화함으로써 퍼포먼스를 최대화하는 기존의 접근법이 한계에 다다랐다고 경고했습니다.
  37. ^ Hennessy, John L.; Patterson, David A.; Larus, James R. (1999). Computer organization and design : the hardware/software interface (2. ed., 3rd print. ed.). San Francisco: Kaufmann. ISBN 978-1-55860-428-5.
  38. ^ Neil GershenfeldIsaac L.Scientific American의 "분자를 사용한 양자 계산" 기사.
  39. ^ Manin, Yu. I. (1980). Vychislimoe i nevychislimoe [Computable and Noncomputable] (in Russian). Sov.Radio. pp. 13–15. Archived from the original on 10 May 2013. Retrieved 4 March 2013.
  40. ^ Feynman, R. P. (1982). "Simulating physics with computers". International Journal of Theoretical Physics. 21 (6): 467–488. Bibcode:1982IJTP...21..467F. CiteSeerX 10.1.1.45.9310. doi:10.1007/BF02650179. S2CID 124545445.
  41. ^ Deutsch, David (1992-01-06). "Quantum computation". Physics World. 5 (6): 57–61. doi:10.1088/2058-7058/5/6/38.
  42. ^ Finkelstein, David (1968). "Space-Time Structure in High Energy Interactions". In Gudehus, T.; Kaiser, G. (eds.). Fundamental Interactions at High Energy. New York: Gordon & Breach.
  43. ^ "New qubit control bodes well for future of quantum computing". Retrieved 26 October 2014.
  44. ^ 양자 정보 과학기술 로드맵을 통해 연구 방향을 파악할 수 있습니다.
  45. ^ a b c d e Wayback Machine: 계층 A+에서 아카이브된 2007 호주 ICT 회의 순위 2009-10-02.
  46. ^ MFCS 2017
  47. ^ CSR 2018
  48. ^ a b c d e f g h i j Wayback Machine: 계층 A에서 아카이브된 2007 호주 ICT 회의 순위 2009-10-02.
  49. ^ FCT 2011 (2013-06-03)

추가 정보

외부 링크