24/05/2018, 16:51

Khoa học trí tuệ nhân tạo

Trong phần này chúng tôi nỗ lực giải thích tại sao chúng tôi coi trí tuệ nhân tạo là một bộ môn đáng nghiên cứu nhất; và nỗ lực của chúng tôi nhằm giải thích trí tuệ nhân tạo là gì. Đây có phải là bộ môn hấp dẫn khi nghiên cứu không. ...

Trong phần này chúng tôi nỗ lực giải thích tại sao chúng tôi coi trí tuệ nhân tạo là một bộ môn đáng nghiên cứu nhất; và nỗ lực của chúng tôi nhằm giải thích trí tuệ nhân tạo là gì. Đây có phải là bộ môn hấp dẫn khi nghiên cứu không.

Trí tuệ nhân tạo hay AI (Artificial Intelligence) là một trong những ngành tiên tiến nhất. Nó chính thức được bắt đầu vào năm 1956, mặc dù việc này đã bắt đầu từ 5 năm trước. Cùng với ngành di truyền học hiện đại, đây là môn học được nhiều nhà khoa học đánh giá: “là lĩnh vực tôi thích nghiên cứu nhất trong số những môn tôi muốn theo đuổi”. Một sinh viên vật lý đã có lý khi nói rằng: tất cả các ý tưởng hay đã được Galileo, Newton, Einstein tìm rồi; một số ý tưởng khác lại mất rất nhiều năm nghiên cứu trước khi có vai trò thực tiễn. AI vẫn là vấn đề để trống từ thời Einstein.

Qua hơn 2000 năm, các triết gia đã cố gắng để hiểu cách nhìn, học, nhớ và lập luận được hình thành như thế nào. Sự kiện những chiếc máy tính có thể sử dụng được vào đầu những năm 50 của thế kỉ XX đã làm các nhà tri thức thay đổi hướng suy nghĩ. Rất nhiều người cho rằng: “những trí tuệ siêu điện tử” mới này đã cho ta dự đoán được tiềm năng của trí tuệ. AI thực sự khó hơn rất nhiều so với ban đầu mọi người nghĩ.

Hiện nay AI đã chuyển hướng sang nhiều lĩnh vực nhỏ, từ các lĩnh vực có mục đích chung chung như nhận thức, lập luận, tư duy logic đến những công việc cụ thể như đánh cờ, cung cấp định lý toán học, làm thơ và chuẩn đoán bệnh. Thường, các nhà khoa học trong các lĩnh vực khác cũng nghiêng về trí tuệ nhân tạo. Trong lĩnh vực này họ thấy các phương tiện làm việc, vốn từ vựng được hệ thống hoá, tự động hoá: các nhiệm vụ trí tuệ là công việc mà họ sẽ có thể cống hiến cả đời. Đây thực sự là một ngành rất phổ biến.

Tư duy như con người: phương pháp nhận thức

Nếu muốn một chương trình máy tính có khả năng suy nghĩ như con người, chúng ta phải tìm hiểu con người đã tư duy như thế nào? Có một số tiêu chí xác định như thế nào là suy nghĩ kiểu con người. Chúng ta cần xem công việc bên trong của bộ óc con người. Có hai phương pháp để thực hiện điều này: thứ nhất là thông qua tư duy bên trong - phải nắm bắt được suy nghĩ của con người khi làm việc - thứ hai thông qua thí nghiệm tâm lý. Khi chúng ta đã có được đầy đủ lý thuyết về tư duy thì chúng ta có thể chương trình hoá nó trên máy tính. Nếu đầu vào/ra của chương trình và thời gian làm việc phù hợp với con người thì những chương trình tự động này có thể hoạt động theo con người. Ví dụ, Newell và Simon đã phát triển phương pháp giải quyết vấn đề GPS- General Problem Solver (Newell and Simon 1961). Đây là phương pháp đối lập với các nghiên cứu đương thời (như Wang (1960)) ông quan tâm đến việc có được những giải pháp đúng đắn, không quan tâm đến việc con người phải làm như thế nào.

Các qui tắc tư duy

Triết gia Aristote là người đầu tiên hệ thống hoá “tư duy chính xác”. Phép tam đoạn luận của ông đưa ra kết luận đúng nếu cả tiền đề chính và tiền đề thứ là đúng. Chẳng hạn: “nếu Sô-crát là con người, mọi con người đều chết, như vậy Sô-crát sẽ chết”.

Môn tư duy logic phát triển vào cuối thế kỉ XIX đầu XX. Năm 1965 các chương trình cung cấp cho chúng ta đủ những thông tin, chi tiết về một vấn đề trong tư duy logic và tìm ra phương pháp giải. Nếu vẫn còn vấn đề chưa có cách giải thì chương trình sẽ không ngừng tìm kiếm cách giải. Môn logic truyền thống trong AI là điều mong mỏi để có được một chương trình mô tả hệ thống trí tuệ.

Khởi nguồn của AI (1943 - 1956)

Những công việc đầu tiên của AI được Warren McCulioch và Walter Pitts (1943) thực hiện. Họ đã nghiên cứu ba cơ sở lí thuyết: triết học cơ bản và chức năng của các nơ ron thần kinh; phân tích về các mệnh đề logic là của Russell và whitehead và cuối cùng là thuyết dự đoán của Turning. Họ đã đề ra mô hình nơ ron nhân tạo, trong đó mỗi nơ ron được đặc trưng bởi hai trạng thái “bật”, “tắt”. McCulloch và Pitts cũng đã phát hiện: mạng nơ ron có khả năng học. Donald Hebb (1949) sử dụng luật học đơn giản tượng trưng cho việc truyền thông tin giữa các giữa các nơ ron.

Đầu những năm 1950, Claude Shannon (1950) và Alan Turning (1953) đã viết chương trình đánh cờ theo cách mà Von Newman sáng chế ra máy tính. Cùng lúc đó, hai sinh viên khoa toán trường đại học Princeton, Marvin Minsky và Dean Edmond đã xây dựng hệ thống máy tính nơ ron đầu tiên vào năm 1951 được gọi là SNARC. Nó sử dụng khoảng 3000 bóng điện tử chân không và thiết bị cơ khí tự động tính giá trị thặng dư từ chùm B-24 để mô phỏng mạng với 40 nơ ron. Nhóm thạc sĩ của Minsky nghi ngờ rằng liệu đây có được coi là một phần của toán học, nhưng Neuman một thành viên của nhóm đã cho biết rằng “nếu bây giờ nó không phải là một phần của toán học thì một ngày nào đó nó sẽ là như thế”. Thật mỉa mai, sau này Minsky lại chính là người chứng minh học thuyết này và đã bác bỏ nhiều hệ thống nghiên cứu về mạng nơ ron trong suốt những năm 1970.

Lòng say mê và tôn trọng lớn ngay từ rất sớm (1952-1969)

Năm 1958 McCarthy đã định nghĩa ngôn ngữ bậc cao Lisp, và trở thành ngôn ngữ lập trình cho AI. Lisp là ngôn ngữ lập trình lâu đời thứ hai mà hiện nay vẫn sử dụng. Với Lisp, McCarthy đã có phương tiện ông cần, nhưng để đáp ứng được yêu cầu và tài nguyên tính toán là một vấn đề quan trọng. Cũng vào năm 1958, McCarthy xuất bản bài báo “Các chương trình với cách nhìn nhận chung”. Trong bài báo này, ông bàn về chương trình tư vấn, một chương trình giả định được coi là hệ thống AI hoàn thiện đầu tiên. Giống học thuyết logic và cách chứng minh các định lý hình học, chương trình của McCarthy được thiết kế nhằm sử dụng kiến thức để nghiên cứu cách giải quyết vấn đề. Không như các chương trình khác, chương trình này là một bộ phận kiến thức của toàn bộ thế giới quan. Ông chỉ ra rằng làm thế nào để những điều rất đơn giản lại làm cho chương trình có thể khái quát được một kế hoạch đến sân bay và lên máy bay. Chương trình này cũng được thiết kế để nó có thể chấp nhận vài chân lý mới về quá trình thực hiện bình thường. Chính vì vậy, chương trình này có được những khả năng thực hiện trong các chương trình mới mà không cần lập trình lại.

Năm 1963, McCarthy đã có các nghiên cứu về sử dụng logic để xây dựng chương trình ngườivấ Chương trình này được phát triển do khám phá của Robinson về phương pháp cải cách. Những công việc đầu tiên tạo ra những hệ thống mới của McCulloch và Pitts làm cho chúng phát triển. Các phương pháp nghiên cứu của Hebb đã được Widrow ủng hộ (Widrow và Hoff,1960; Widrow, 1962). Họ đã đặt tên mang nơ ron là mạng của ông, và cũng được Frank Rosenblatt (1962) củng cố. Rosenblatt chứng minh rằng thuật toán mà ông nghiên cứu có thể thêm vào những khả năng của nhận thức phù hợp với bất cứ dữ liệu đầu vào nào.

Những nhà nghiên cứu AI cũng đã dự đoán về những thành công sau này. Herbert Simon đã phát biểu (1957): Không phải mục đích của tôi là làm các bạn ngạc nhiên, nhưng cách đơn giản nhất để có thể khái quát là hiện nay trên thế giới, máy móc có thể suy nghĩ, có thể học và sáng tạo được. Hơn nữa, khả năng của nó là làm việc với tiến độ cao- trong tương lai rõ ràng – cho đến khi vấn đề chúng ta có thể giải được, sẽ cùng tồn tại với tư duy của con người có thể áp dụng được. Năm 1958, ông dự đoán trong 10 năm nữa, một máy tính có thể vô địch trong môn cờ vua, và các định lý toán học mới sẽ được máy chứng minh.

Toàn cảnh về phương pháp giải quyết vấn đề hình thành trong thập kỉ đầu nghiên cứu AI là mục đích nghiên cứu nỗ lực liên kết các bước lập luận cơ bản với nhau để tìm ra phương pháp hoàn thiện. Các phương pháp này được coi là các phương pháp kém vì sử dụng thông tin kém về lĩnh vực. Đối với nhiều lĩnh vực phức tạp, thì các phương pháp thực hiện lại rất kém. Cách duy nhất quanh vấn đề là sử dụng kiến thức phù hợp hơn để có bước lặp rộng hơn và để giải quyết các trường hợp nảy sinh nhất định trong các lĩnh vực nhỏ chuyên môn. Chúng ta chắc sẽ nói rằng giải quyết các vấn đề khó thì hầu như phải biết trước đáp án.

Chương trình DENDRAL (Buchanan, 1969) là một ví dụ sớm tiếp cận phương pháp này. Nó được phát triển tại Stanford, đây chính là nơi Ed Feigenbaum (một sinh viên chính qui của Herbert Simon). Bruce Buchanan (một triết gia chuyển sang làm nghiên cứu máy tính) và Joshua Lederberg (nhà nghiên cứu di truyền đoạt giải Nobel) đã hợp nhau lại để cùng suy luận, giải quyết vấn đề có cấu trúc phân tử từ những thông tin do máy đo quang phổ cung cấp. Dữ liệu đưa vào chương trình gồm các cấu trúc cơ bản của phân tử (Ví dụ C6H12NO2), và rất nhiều dải quang phổ đưa ra hàng loạt đoạn phân tử khác nhau khái quát chung khi nó cùng một lúc đưa ra các dòng điện tử. Ví dụ dải quang phổ chứa đựng một điểm nhọn tại m=15 tương ứng với một dải của đoạn methyl (CH3).

Phiên bản sơ khai của chương trình khái quát được toàn bộ cấu trúc có thể bên trong bằng phân tử và sau đó phỏng đoán bằng cách quan sát mỗi dải quang phổ, so sánh nó với quang phổ thực tế. Như chúng ta nghĩ thì điều này trở nên nan giải đối với các phân tử có kích thước đáng kể. Các nhà nghiên cứu DENDRAL khuyên các nhà phân tích dược khoa và cho thấy rằng họ nghiên cứu bằng cách tìm kiếm các phần bên trên của điểm nhọn trong dải quang phổ, điều đó đưa ra gợi ý chung về các cấu trúc nhỏ bên trong phân tử. Ví dụ, qui luật sau đây được sử dụng để nhận ra một nhóm nhỏ xeton (C=0)

Nếu có hai đỉnh x1, x2 như sau:

(a) x1+x2 = M+28 (M là khối lượng của phân tử) (b) x1-28 là một đỉnh

(c) x2-28 là một đỉnh

(d) Có ít nhất một đỉnh x1 hoặc x2 là đỉnh cao. Sau đó có một nhóm nhỏ xeto

Khi nhận ra phân tử chứa một cấu trúc nhỏ đặc biệt, số lượng thành phần tham gia có thể bị giảm xuống nhanh chóng. Nhóm DENDRAL kết luận rằng hệ thống mới là rất mạnh bởi vì: toàn bộ kiến thức có liên quan đến giải quyết công việc đã được phác thảo sơ qua từ cấu trúc chung trong [thành phần quang phổ đoán trước] để có những cấu trúc đặc biệt

Tầm quan trọng của DENDRAL là nó là hệ thống cảm nhận kiến thức thành công đầu tiên. Các chuyên gia của lĩnh vực này đi sâu từ số lượng lớn các qui luật có mục đích đặc biệt. Các hệ thống sau này cũng không kết hợp lại thành chủ đề chính của phương pháp chuyên gia của McCarthy - phần hoàn toàn tách biệt của kiến thức (trong cấu trúc của qui luật) và thành phần lập luận.

Với bài học này, Feigebaum và các thành viên khác tại Stanford bắt đầu lập dự án chương trình Heuristic, để đầu tư mở rộng vào các phương pháp mới của hệ chuyên gia nhằm áp dụng vào các lĩnh vực khác nhau. Những nỗ lực chính sau đó là chuẩn đoán y học. Feigenbaum, Buchanan và Edward Shortlife đã phát triển hệ chuyên gia MYCIN để chẩn đoán bệnh nhiễm trùng máu. Với khoảng 450 luật, hệ chuyên gia MYCIN có thể thực hiện tốt hơn nhiều bác sĩ mới. Nó có hai sự khác biệt cơ bản với hệ chuyên gia DENDRAL. Thứ nhất: không giống như các luật DENDRAL, không một mẫu lý thuyết chung nào tồn tại mà có thể suy luận từ các luật của hệ MYCIN. Các luật phải có câu chất vấn của chuyên gia, người có nhiệm vụ tìm chúng từ kinh nghiệm. Thứ hai: các luật phản ánh mối liên quan không chắc chắn với kiến thức y học. MYCIN kết hợp với hệ vi phân của biến số được coi là các nhân tố phù hợp tốt (ở mọi lúc) với phương pháp mà các bác sĩ tiếp cận với các triệu chứng trong quá trình chuẩn đoán.

Cách tiếp cận khác để chuẩn đoán y học cũng được nghiên cứu. Tại trường đại học Rutger, những máy tính trong ngành sinh hoá của Sual Amarel bắt đầu tham vọng nhằm cố gắng chuẩn đoán bệnh tật dựa trên kiến thức được biểu đạt rõ ràng của những chiếc máy phân tích quá trình bệnh tật. Trong khi đó, một số nhóm lớn hơn tại MIT và trung tâm y tế của Anh đang tiếp tục phương pháp chuẩn đoán và điều trị dựa trên học thuyết có tính khả thi và thực tế. Mục đích của họ là xây dựng các hệ thống có thể đưa ra các phương pháp chẩn đoán y học. Về y học, phương pháp Stanford sử dụng các qui luật do các bác sĩ cung cấp ngay từ đầu đã được chứng minh là phổ biến hơn. Nhưng hệ chuyên gia PROSPECTOR (Duda 1979) được công bố cho mọi người bằng cách giới thiệu thiết bị khoan thăm quặng

Một vài ngôn ngữ dựa vào logic như ngôn ngữ Prolog phổ biến ở châu Âu, và PLANNER ở Mĩ. Các ngôn ngữ khác, theo sau các ý tưởng của Minsky (1975) chấp nhận phương pháp tiếp cận cấu trúc, thu thập các chứng cứ về đối tượng và các loại sự kiện.

Trí tuệ nhân tạo(AI) là gì?

Chúng ta có thể nói: “Tuyệt thật, đây là một chương trình được thực hiện bằng những suy diễn thông minh, vì thế cần phải tiếp tục và mọi người cần bổ sung cho nó”. Nhưng theo sự phát triển của khoa học cho thấy: sẽ có ích nếu ta đi đúng hướng. Định nghĩa về AI đã có tới tám cuốn sách đề cập. Những định nghĩa đó đưa ra trên hai nhận định chính:

- Thứ nhất: quan tâm chủ yếu đến quá trình tư duy và lập luận

- Thứ hai: vấn đề ít được quan tâm hơn, đó là hoạt động.

Một hệ thống được coi là hợp lý nếu như nó thực hiện đúng.

Hệ thống tư duy như con người Hệ thống tư duy có lập luận
Hệ thống hoạt động như con người Hệ thống hoạt động có lập luận

Hoạt động như con người: phương pháp trắc nghiệm Turning

Phương pháp trắc nghiệm Turning được Alan Turning (1950) đưa ra . Đây là phương pháp nhằm định nghĩa một hoạt động gọi là thông minh. Turning cho rằng: hoạt động trí tuệ là khả năng có được như con người trong những công việc cần tri thức, đủ để đánh lừa người thẩm vấn mình. Nói khái quát, phương pháp trắc nghiệm của ông là: máy tính sẽ bị một người hỏi thông qua giao tiếp gõ chữ qua vô tuyến. Kết thúc thí nghiệm sẽ là lúc người hỏi không còn câu nào để hỏi hoặc cả người và máy đều hoàn thành. Để lập chương trình cho máy tính qua được quá trình kiểm tra cần hoàn thành nhiều việc. Máy tính cần có các khả năng sau:

• Xử lý ngôn ngữ tự nhiên để giao tiếp tốt bằng tiếng Anh (hoặc ngôn ngữ khác)

• Biểu diễn tri thức, lưu trữ thông tin được cung cấp trước hoặc trong quá trình thẩm vấn.

• Tự động lập luận để sử dụng thông tin đã được lưu nhằm trả lời câu hỏi và phác thảo kết luận mới.

• Máy học: để thích nghi với môi trường mới, kiểm tra và chấp nhận những mẫu mới.

• Đối với AI, không cần có sự cố gắng cao mới qua được quá trình kiểm tra của Turning. Khi các chương trình AI giao tiếp trực tiếp với con người thì việc hoạt động được giống như người là vấn đề thiết yếu. Quá trình trình diễn và lý giải những hệ thống như thế có thể hoặc không cần dựa vào con người.

Tri thức là sự hiểu biết bằng lý thuyết hay thực tế vè một chủ đề hay lĩnh vực. Tri thức là tổng của những cái đang biết hiện nay; tri thức là sức mạnh. Những người có tri thư tốt là những chuyên gia (expert).

So với chương trình truyền thống (được cấu tạo từ hai “chất liệu” cơ bản là dữ liệuthuật toán), chương trình trí tuệ nhân tạo được cấu tạo từ hai thành phần là cơ sở tri thức(knowledgebase) và động cơ suy diễn( inference engine).

Định nghĩa:

Cơ sở tri thức là tập hợp các tri thức liên quan đến vấn đề mà chương trình quan tâm giải quyết. Cơ sở tri thức chứa các kiến thức được sử dụng để giải quyết các vấn đề (bài toán) trong trí tuệ nhân tao.

Trong hệ cơ sở tri thức chứa hai chức năng tách biệt nhau, trường hợp đơn gian gồm hai khối: khối tri thức hay còn gọi là cơ sở tri thức; khối điều khiển hay còn gọi là đông cơ suy diễn. Với các hệ thống phức tạp, bản thân động cơ suy diễn cũng có thể là một hệ cơ sở tri thức chứa các siêu tri thức (tri thức về các tri thức). Hình dưới đây mô tả cấu trúc chương trình truyền thống (bên trái) và cấu trúc chương trình trí tuệ nhân tạo (bên phải).

Động cơ suy diễn: là phương pháp vận dụng tri thức trong cơ sở tri thức để giải quyết vấn đề.

Lý thuyết giải bài toán và suy diễn thông minh

Lý thuyết giải bài toán cho phép viết các chương trình giải câu đố, chơi các trò chơi thông qua các suy luận mang tính người. Hệ thống giải bài toán GPS do Newel, Shaw và Simon đưa ra rồi được hoàn thiện năm 1969 là một mốc đáng ghi nhớ. Trước năm 1980, Buchanal và Luckham cũng hoàn thành hệ thống chứng minh định lý. Ngoài ra các hệ thống hỏi đáp thông minh như SỈ, QA2, QA3,.. cho phép lưu trữ và xử lý khối lượng lớn các thông tin. Chương trình của McCarthy về các phương án hành động có khả năng cho các lời khuyên.

Lý thuyết giải bài toán cho phép viết các chương trình giải câu đố, chơi các trò chơi thông qua các suy luận mang tính người. Hệ thống giải bài toán GPS do Newel, Shaw và Simon đưa ra rồi được hoàn thiện năm 1969 là một mốc đáng ghi nhớ. Trước năm 1980, Buchanal và Luckham cũng hoàn thành hệ thống chứng minh định lý. Ngoài ra các hệ thống hỏi đáp thông minh như SỈ, QA2, QA3,.. cho phép lưu trữ và xử lý khối lượng lớn các thông tin. Chương trình của McCarthy về các phương án hành động có khả năng cho các lời khuyên.

Lý thuyết tìm kiếm may rủi

Việc tìm kiếm lời giải cũng là việc bài toán. Lý thuyết tìm kiếm nhờ may rủi gồm các phương pháp và kỹ thuật tìm kiếm với sự hỗ trợ của thông tin phụ để giải bài toán một cách hiệu quả. Công trình đáng kể về lý thuyết này là của G.Pearl vào năm 1984.

Các ngôn ngữ về Trí Tuệ Nhân Tạo

Để xử lý các tri thức người ta không thể chỉ sử dụng các ngôn ngữ lập trình dùng cho các xử lý dữ liệu số mà cần có các ngôn ngữ khác. Các ngôn ngữ chuyên dụng này cho phép lưu trữ và xử lý các thông tin kí hiệu. Dùng các ngôn ngữ này cũng là cách để trả lời câu hỏi “ thế nào” (what). rồi tới câu hỏi “làm sao vậy”(how). Một số ngôn ngữ được nhiều người biết đến là:

• Các ngôn ngữ IPL.V, LISP.

• Ngôn ngữ mạnh hơn như PLANNER, PROLOG. Ngay trong một ngôn ngữ cũng có nhiều thế hệ với những phát triển đáng kể.

Lý thuyết thể hiện tri thức và hệ chuyên gia

Theo quan điểm của nhiều chuyên gia công nghệ thông tin, trí tuệ nhân tạo là khoa học về

thể hiện tri thức và sử dụng tri thức. Người ta nhận xét về phương pháp thể hiện tri thức như sau:

• Lược đồ dùng thể hiện tri thức trong chương trình

• Mạng ngữ nghĩa, logíc vị từ , khung, mạng là các phương pháp thể hiện tri thức một cách thông dụng.

• Dùng khung để thể hiện tri thức chắc chắn là phương pháp có nhiều hữa hẹn trong các năm gần đây.

Việc gắn liền cách thể hiện và sử dụng tri thức là cơ sở hình thành hệ chuyên gia. Vậy nên phải kết hợp các quá trình nghiên cứu các quy luật, thiết kế và xây dựng hệ chuyên gia. Tuy nhiên cho đên nay, đa số các hệ chuyên gia mới thuộc lĩnh vực y học.

Lý thuyết nhận dạng và xử lý tiếng nói

Giai đoạn phát triển đầu của trí tuệ nhân tạo gắn liền với lý thuyết nhận dạng. Các phương pháp nhận dạng chính được giới thiệu gồm:

• Nhận dạng dùng tâm lý học

• Nhận dạng hình học

• Nhận dạng theo phương pháp hàm thế.

• Dùng máy nhận dạng

Ứng dụng của phương pháp này trong việc nhận dạng trong chữ viết, âm thanh, hình ảnh… cho đến ngay đã trở nên quen thuộc. Người ta đã có hệ thống xử lý hình ảnh ba chiều, hệ thống tổng hợp tiếng nói.

Do khối lượng đồ sộ của tri thức về lý thuyết nhận dạng. các chương trình sau chưa đề cập đến các phương pháp nhận dạng được.

Người máy

Cuối những năm 70, người máy trong công nghiệp đã đạt được nhiều tiến bộ “ Khoa học người máy là nối kết thông minh của nhận thức với hành động”. Người máy có bộ cảm nhận và các cơ chế hoạt động được nối ghép theo sự điều khiển thông minh. Khoa học về cơ học và trí tuệ nhân tạo được tích hợp trong khoa học về người máy. Các đề án trí tuệ nhân tạo nghiên cứu về người máy bắt đầu từ đề án “mắt – tay”. Trong thực tế, người máy được dùng trong các nhiệm vụ chuyên sâu, thuộc các dây truyền công nghiệp.

Nội dung về khoa học người máy sẽ được trình bày trong tài liệu riêng, không thuộc các chương của tài liệu này.

Tâm lý học xử lý thông tin

Các kết quả nghiên cứu của tâm lý học giúp trí tuệ nhân tạo xây dựng các cơ chế trả lời theo hành vi, có ý thức. Nó giúp thực hiện các suy diễn mang tính người.

Hệ thống chuyên gia thương mại đầu tiên, R1, bắt đầu hoạt động tại công ty thiết bị kĩ thuật số (McDemott, 1982). Chương trình giúp sắp xếp cấu hình cho các hệ thống máy tính mới và trước năm 1986, nó đã tiết kiệm cho công ty khoảng 40 triệu dollar mỗi năm. Đến trước năm 1988, nhóm nghiên cứu AI của DEC đã có 40 hệ thống chuyên gia được triển khai. Du pont có 100 chiếc đi vào sử dụng và 500 chiếc được phát triển, tiết kiệm được khoảng 10 triệu dollar mỗi năm. Dường như mỗi một công ty chính của Mĩ đều có một nhóm AI của riêng công ty và cùng sử dụng hoặc đầu tư vào công nghệ hệ chuyên gia.

Năm 1981, Nhật bản thông báo về dự án “Thế hệ thứ năm”, kế hoạch 10 năm xây dựng những chiếc máy tính thông minh chạy Prolog giống như những chiếc máy chạy chương trình mã máy. Ý tưởng đó với khả năng thực hiện hàng triệu phép tính mỗi giây, máy tính có thể thuận lợi trong việc lưu trữ hàng loạt luật có sẵn. Dự án được đưa ra nhằm máy tính có thể giao tiếp bằng ngôn ngữ tự nhiên cùng một số các tham vọng khác.

Dự án “thế hệ 5” thúc đẩy niềm đam mê vào AI, bằng cách tận dụng nỗi lo lắng của người Nhật, các nhà nghiên cứu, các tổng công ty có thể hỗ trợ chung cho việc đầu tư tương tự như ở nước Mĩ. Tổng công ty công nghệ máy tính và siêu điện tử (MMC) đã được hình thành như một công ty liên kết nghiên cứu dự án của Nhật. Ở Anh, bài báo Alvey làm phục hồi số vốn đã bị bài báo Lighthill làm hụt. Trong cả hai trường hợp, thì AI đều là một phần trong nỗ lực lớn bao gồm cả thiết kế con chip và nghiên cứu giao diện với con người.

Bùng nổ công nghiệp AI cũng bao gồm cả các công ty như tập đoàn Carnegie, Inference, Intellicorp, và Teknowledge các công ty này yêu cầu các công cụ phần mềm để xây dựng hệ chuyên gia và các công ty phần cứng như Lisp Machine, công ty thiết bị Texas, Symbolic và Xerox đã xây dựng hệ thống làm việc tối ưu để phát triển các chương trình Lisp. Trên 100 công ty lắp ráp hệ thống công nghiệp robot. Nói chung ngành công nghiệp đi từ mức chỉ bán được vài triệu trong năm 1980 lên 2 tỉ dollar năm 1988.

Mặc dù khoa học máy tính bỏ quên lĩnh vực mạng nơ ron sau khi cuốn sách “khả năng nhận thức” của Minsky và Papert ra đời, nhưng các lĩnh vực khác vẫn tiếp tục, đặc biệt là vật lý. Một số lượng lớn các nơ ron đơn giản đã có thể coi như một số nguyên tử trong chất rắn. Các nhà vật lý học như Hopfield (1982) đã sử dụng các kĩ thuật cơ học thống kê dẫn tới các ý tưởng thụ thai chéo quan trọng. Các nhà triết học David Rumelhart và Geoff Hinton nghiên cứu các mẫu mạng nơ ron trí nhớ. Vào những năm 1980, có ít nhất bốn nhóm khác nhau nghiên cứu lại thuật toán Back-propagation. Thuật toán này được công bố lần đầu vào năm 1969 bởi Bryson và Ho. Thuật toán được áp dụng rất nhiều trong khoa học máy tính và tâm lý học, và phổ biến kết quả trong cuốn “xử lý phân tán song song” (Rumelhart và McClelland, 1986).

Những năm gần đây, chúng ta đã chứng kiến sự thay đổi rất lớn trong nội dung và phương pháp nghiên cứu AI. Nó trở nên phổ biến khi dựa trên các lý thuyết có sẵn. Trong những năm

1970, một số lớn các kiến trúc và các phương pháp đã buộc phải thử. Rất nhiều trong số này, thậm trí là adhocvà fragile và được tượng trưng ở một vài ví dụ được chọn là đặc biệt. Trong những năm gần đây, các phương pháp dựa trên mô hình Markov ẩn (HMMs) đã thống trị lĩnh vực này, hai khía cạnh của HMMs có liên quan đến những vấn đề bàn luận hiện tại. Đầu tiên, chúng được dựa trên lý thuyết toán học chính xác. Điều này cho phép các nhà nghiên cứu tiếng nói xây dựng các kết quả toán học của một vài thập kỉ đã được phát triển ở một số lĩnh vực khác. Thứ hai, chúng đã được sinh ra bởi một quá trình xử lý trên tập dữ liệu tiếng nói. Chắc chắn rằng thực hiện đó là dạng thô, và trong các trắc nghiệm HMMs khắt khe không rõ ràng đã tiến triển đều đặn.

Lĩnh vực khác xem ra có lợi ích từ sự chính thức hoá là lập kế hoạch. Công việc sớm được thực hiện bởi Austin Tate (1977), sau đó là David Chapman (1987) đã có kết quả trong sự tổng hợp của các chương trình lập kế hoạch vào một khung làm việc đơn giản. Đã có một vài lời khuyên rằng nên xây dựng trên mỗi cái khác nhau hơn là bắt đầu từ con số không tại mỗi thời điểm. Kết quả của các hệ thống lập kế hoạch đó chỉ thực sự tốt trong các thế giới thu hẹp, trong năm 1970 nhiệm vụ lập lịch cho công việc của nhà máy. Xem Chương 11 và 12 để biết thêm chi tiết.

Cuốn Tranh luận theo xác suất trong các hệ thống thông minh đã đánh dấu một sự tán thưởng của lý thuyết quyết định và xác suất trong AI, tiếp theo sự hồi sinh của một sự thu nhỏ lí thú theo bài báo “Trong biện hộ của xác suất” của Peter Cheeseman (1985). Tin tưởng rằng hình thức mạng là phát minh đã cho phép tranh luận hiệu quả về chứng minh của sự phối hợp không chắc chắn. Cách tiếp cận lớn này vượt qua được vấn đề các hệ thống lập luận có khả năng trong những năm 1960 đến 1970... Chương 14 tới 16 bàn tới lĩnh vực này.

Cũng tương tự như cuộc cách mạng trong lĩnh vực người máy, khả năng của máy tính, máy học (bao gồm cả các mạng neural) và sự trình diễn tri thức. Một cách hiểu tốt nhất của các vấn đề và sự phức tạp các thuộc tính, phối hợp cùng với sự ngụy biện đã gia tăng trong toán học, đã có sự chỉ đạo về lịch nghiên cứu công việc có khả năng và các phương pháp dạng thô. Có lẽ được khuyến khích bởi sự tiến triển trong giải quyết các vấn đề con của AI, các nhà nghiên cứu đã bắt đầu tìm kiếm “yếu tố đầy đủ” cho vấn đề. Công việc của Allen Newel, John Laird và Paul Rosenbloom ở SOAR (Newel, 1990; Laird 1987) là những ví dụ hiểu biết tốt nhất của một yếu tố hoàn chỉnh về kiến trúc trong AI. Cũng gọi là hành động có mục đích “trong những hoàn cảnh xác định” của các yếu tố đưa vào trong các môi trường thực tế với các đầu vào cảm biến liên tục. Nhiều kết quả lý thú đã được tìm thấy trong công việc; bao gồm sự thực rằng trước đó các lĩnh vực con riêng biệt của AI cần tái tạo lại cái gì đó khi mà các kết quả của họ là cùng chỗ trong thiết kế một yếu tố riêng rẽ.

Kiện tướng cờ vua quốc tế Amold Denker, nghiên cứu các quân cờ trên bàn cờ trước mặt ông ta. Ông ta không hy vọng là hiện thực: ông phải từ bỏ cuộc chơi. Đối thủ của ông, HITECH, đã trở thành chương trình máy tính đầu tiên đánh thắng một kiện tướng cờ trong một ván chơi (Berliner, 1989).

“Tôi muốn đi từ Boston tới San Francisco” một người du lịch nói trong micro. “Bạn sẽ đi vào thời gian nào?” là câu hỏi lại. Người du lịch giải thích rằng cô ấy muốn đi vào ngày 20 tháng 10, trên chuyến rẻ nhất có thể, và trở về vào ngày Chủ nhật. Một chương trình giao tiếp bằng tay có thể hiểu được hành động nói của người là PEGASUS, đó là kết quả khiêm tốn dùng để đặt chỗ chuyến đi du lịch với giá 894 dollar bằng xe khách đường dài. Mặc dù vậy chương trình nhận biết tiếng nói có quá 10 từ bị sai, nó có thể là sự tổng hợp từ các lỗi nhỏ bởi vì sự hiểu của nó từ các hội thoại là đưa vào cùng một lúc (Zue 1994).

Một phân tích từ nơi điều khiển các nhiệm vụ của phòng thí nghiệm Jet Propulsion bắt đầu xu hướng thanh toán. Một thông báo màu đỏ xuất hiện trên màn hình chỉ ra rằng “sự không bình thường” với người du hành trên tàu không gian, đó là một nơi nào đó trong vùng xung quanh sao Hải vương. May thay, vấn đề phân tích có thể đúng từ mặt đất. Những người điều khiển tin tưởng rằng có vấn đề phải được bỏ qua đó là MARVEL, một hệ chuyên gia thời gian thực có các màn hình, dòng dữ liệu thô được chuyển từ tàu không gian, các công việc điều khiển chương trình và phân tích cảnh báo đối với những vấn đề nghiêm trọng

Chương này đưa ra các định nghĩa về AI và thiết lập lại các cơ sở của nó, đó là sự phát triển. Một số các điểm quan trọng đáng lưu ý như sau:

Người ta nghĩ về AI có khác nhau. Có hai câu hỏi quan trọng đó là: bạn có quan tâm đến suy nghĩ hoặc hành vi? và Bạn có muốn hình mẫu con người hoặc từ một ý tưởng chuẩn mực?

Các nhà triết học (quay trở lại năm 400 tr.CN) đưa ra ý kiến cho rằng não bộ cũng như một chiếc máy, rằng nó được điều khiển bằng tri thức đã được mã hoá, và ý nghĩ có thể mang theo thói quen giúp đỡ những hành động đúng đắn.

Một số nhà toán học đã cung cấp những công cụ các lệnh tính toán logic chắc chắn cũng tốt như là không chắc chắn, các lệnh không chính xác. Họ cũng đặt cơ sở làm việc cho các thuật toán.

Ngành tâm lý học củng cố thêm ý tưởng rằng loài người và động vật có thể đưa ra cách xử lý thông tin máy móc. Ngành ngôn ngữ học trình bày rằng ngôn ngữ đủ để dùng trong mô hình này.

Ngành công nghiệp máy tính cung cấp các ứng dụng của AI. Các chương trình AI có xu hướng khá lớn, và họ không làm việc được nếu máy tính không có đủ tốc độ và bộ nhớ cần thiết.

Lịch sử của AI có các chu kì thành công, tối ưu hoá đặt không đúng chỗ, và kết quả dẫn đến giảm lòng nhiệt tình và chi phí. Cũng đã có những bước lặp chỉ ra được các cách tiếp cận mới và trau dồi có hệ thống trong số các cách đó.

Những tiến triển gần đây trong học thuyết căn bản về sự thông minh đã tiến bộ cùng với khả năng của các hệ thống thực tế.

Những điểm chú ý về tiểu sử và lịch sử

Cuốn sách Artificial Intelligence của Daniel Crevier (1993) đưa ra lịch sử khá hoàn chỉnh của lĩnh vực này, và Age of Intelligent Machines của Raymond Kurzweil (1990) về AI trong ngữ cảnh của khoa học máy tính và lịch sử trí tuệ. Các văn bản của Dianne Martin (1993) cũng công nhận rằng từ rất sớm các máy tính là có khả năng bởi sức mạnh thần kỳ của trí tuệ.

Phương pháp luận trạng thái của AI được Herb Simon bàn tới trong The Sciences of the Artificial (1981), đó là các lĩnh vực nghiên cứu được quan tâm cùng với các đồ tạo tác phức tạp. Nó cũng lý giải tại sao AI có thể có tầm nhìn trên cả hai lĩnh vực toán học và khoa học.

Artificial Intelligence: The very Idea bởi John Haugeland (1985) đã đưa ra sự tường thuật có thể đọc được của triết học và các vấn đề của AI. Khoa học nhận thức được mô tả tốt nhất bởi Johnson Laird, Máy tính và não bộ: giới thiệu về khoa học nhận thức. Baker (1989) gồm cả phần cú pháp của ngôn ngữ học hiện đại, cùng Chierchia và McConnel-Ginet (1990) bao gồm cả ngữ nghĩa, Allen (1995) bao gồm cả ngôn ngữ học từ quan điểm của AI.

Feigenbaum và Feldman đã làm việc với AI từ rất sớm, cuốn sách của họ có tựa đề Máy tính và suy nghĩ. Cuốn Xử lý thông tin ngữ nghĩa của Minsky và một loạt bài viết về Trí tuệ máy của Donald Michie. Một số lượng lớn các trang báo được tập hợp lại trong Sự hiểu biết trong AI (Webber và Nilsson, 1981).

Các cuộc hội thảo xuất hiện gần đây bàn về vấn đề chính của AI, đó là: thống nhất cứ hai năm một lần diễn ra hội thảo quốc tế AI, gọi tắt là IJCA (International Joint Conference AI), và hội thảo diễn ra hàng năm ở mức quốc gia về AI, và AAAI là tổ chức đứng ra bảo trợ cho AI. Các tạp chí chuyên ngành chung về AI là AI, Computation Intelligence, tổ chức IEEE Transactions on Pattern Analysis and Machine Intelligence, và tạp chí điện tử Journal of Artificial Intelligence Research. Các sản phẩm thương mại đưa ra trong các tạp chí như AI Expert và PC AI. Tổ chức xã hội chuyên nghiệp về AI là American Association for AI (AAAI), ACM Special Interest Group in AI (SIGART) và AISB (Society for AI and Simulation of Behaviour). Tạp chí về AI của AAAI và SIGART Bullentin có rất nhiều các đề tài và thầy hướng dẫn tốt như là thông báo của các cuộc hội thảo và thảo luận.

Ở Việt Nam gần đây có tổ chức các Hội nghi Khoa học: Hệ mờ mạng nơ ron; Hoi thảo Quốc gia vè Hệ mờ do viện Toan học, Viện Công nghệ Thông tin thuộc viện Khoa học Công nghệ Quốc gia tổ chức hàng năm.

Chúng tôi đưa ra định nghĩa của AI theo hai khía cạnh, con người, ý tưởng và hành động. Nhưng có nhiều khía cạnh khác có giá trị đáng xét đến. Một trong số đó là sự chọn lựa giữa: sự phấn khích của chúng tôi về các kết quả lí thuyết hoặc các ứng dụng thực hành. Một khía cạnh nữa là chúng tôi có dự kiến có thể nhận ra các máy tính của chúng tôi có thông minh hay không. Đã có 8 định nghĩa tiêu biểu trong Hình 1.1 và có 7 định nghĩa theo bốn khía cạnh chúng tôi vừa đề cập và bạn có cảm thấy các định nghĩa là hữu ích sau đây

AI là ...

a. “một tập hợp các thuật toán dễ tính toán, thích hợp tính gần đúng cho các bài toán đặc biệt khó .” (Partridge, 1991)

b. “sự tham gia vào xây dựng một hệ thống kí hiệu vật lí sao cho có thể vượt qua trắc nghiệm của Turning.”

c. “lĩnh vực khoa học máy tính nghiên cứu về các máy có thể hành động thông minh ra sao.” (Jackson, 1986)

d. “một lĩnh vực nghiên cứu đó là xoay quanh các kĩ thuật tính toán, cho phép thực hiện các công việc đòi hỏi thông minh thực sự khi có con người tham dự.” (Tanimoto, 1990)

e. “một sự đầu tư rất lớn của trí tuệ của tự nhiên và các nguyên lí, các máy móc yêu cầu sự am hiểu hoặc tái tạo nó .” (Sharples , 1989)

f. “Lợi ích của máy tính là làm được mọi thứ, xem nó như là thông minh.” (Rowe, 1988)

Nghiên cứu tài liệu AI để tìm ra các công việc nào dưới đây có thể giải quyết được bằng máy tính:

a. Trò chơi bóng bàn

b. Lái xe ở trung tâm Cairô

c. Khám phá và chứng minh các lý thuyết toán học mới.

d. Viết một truyện cười

e. Đưa ra một lời khuyên khá hợp lý trong phạm vi liên quan đến luật pháp.

f. Dịch tiếng Anh sang tiếng Việt theo thời gian thực.

Thực tế, hư cấu và dự đoán:

a. Tìm một bản công bố của một nhà triết học hoặc nhà khoa học có uy tín cho rằng hiệu quả của độ chắc chắn sẽ không bao giờ được trình diễn bởi máy tính, rằng ở đó bây giờ đã được trình diễn.

b. Tìm một công bố của một nhà khoa học về máy tính có uy tín cho rằng hiệu quả của độ đo chắc chắn được trình diễn bởi thời điểm từ khi nó hợp qui cách.

c. So sánh độ chính xác của những dự đoán trong các lĩnh vực khác nhau, chẳng hạn như y sinh, công nghệ nano, hoặc điện gia dụng.

Cho rằng “những chiếc máy tính là không thông minh - chúng chỉ có thể làm được những gì mà lập trình viên bảo chúng” là câu lệnh phần trước thì đúng và hàm ý sau đó không đúng?

0