ktmt111

Màu nền
Font chữ
Font size
Chiều cao dòng

Chức năng của các thành phần chính của máy tính:

- Khối xử lý trung tâm (CPU) là thành phần quan trọng nhất – được xem là bộ não của máy tính. Các yêu cầu của hệ thống và của người sử dụng thường được biểu diễn thành các chương trình máy tính. CPU đảm nhiệm việc đọc các lệnh của chương trình từ bộ nhớ, giải mã và thực hiện lệnh. Thông qua việc CPU thực hiện các lệnh của chương trình, máy tính có khả năng cung cấp các tính năng hữu ích cho người sử dụng.

- Bộ nhớ trong, còn gọi là bộ nhớ chính  là kho chứa lệnh và dữ liệu của hệ thống và của người dùng phục vụ CPU xử lý. Bao gồm hai loại: (1) Bộ nhớ chỉ đọc (ROM) và (2) Bộ nhớ truy cập ngẫu nhiên (RAM). ROM thường được sử dụng để lưu lệnh và dữ liệu của hệ thống. Thông tin trong ROM được nạp từ khi sản xuất và thường chỉ có thể đọc ra trong quá trình sử dụng, thông tin trong ROM luôn tồn tại kể cả khi không có nguồn điện nuôi. Bộ nhớ RAM thường được sử dụng để lưu lệnh và dữ liệu của cả hệ thống và của người dùng. RAM thường có dung lượng lớn hơn nhiều so với ROM, thông tin trong RAM chỉ tồn tại khi có nguồn điện nuôi.

- Các thiết bị vào ra, hay còn gọi là các thiết bị ngoại vi  đảm nhiệm việc nhập dữ liệu vào, điều khiển hệ thống và kết xuất dữ liệu ra. Có hai nhóm thiết bị ngoại vi: (1) Các thiết bị vào và (2) Các thiết bị ra. Các thiết bị vào dùng để nhập dữ liệu vào và điều khiển hệ thống, gồm: bàn phím, chuột, ổ đĩa, máy quét ảnh,… Các thiết bị ra dùng để xuất dữ liệu ra, gồm: màn hình, máy in, ổ đĩa, máy vẽ,…

- Bus hệ thống là một tập các đường dây kết nối CPU với các thành phần khác của máy tính. Bus hệ thống thường gồm ba bus con: Bus địa chỉ – Bus A, Bus dữ liệu – Bus D, Bus điều khiển - Bus C. Bus địa chỉ có nhiệm vụ truyền tín hiệu địa chỉ từ CPU đến bộ nhớ và các thiết bị ngoại vi; Bus dữ liệu vận chuyển các tín hiệu dữ liệu theo hai chiều đi và đến CPU; Bus điều khiển truyền tín hiệu điều khiển từ CPU đến các thành phần khác, đồng thời truyền tín hiệu trạng thái của các thành phần khác đến CPU.

Các đặc điểm chính của kiến trúc von-Neumann hiện đại. Kiến trúc  von-Neumann khác kiến trúc Havard ở điểm nào

Đặc điểm chính: Kiến trúc von-Neumann dựa trên 3 khái niệm cơ sở: (1) Lệnh và dữ liệu được lưu trữ trong bộ nhớ đọc ghi chia sẻ - một bộ nhớ duy nhất được sử dụng để lưu trữ cả lệnh và dữ liệu, (2) Bộ nhớ được đánh địa chỉ theo vùng, không phụ thuộc vào nội dung nó lưu trữ và (3) Các lệnh của một chương trình được thực hiện tuần tự. Quá trình thực hiện lệnh được chia thành 3 giai đoạn chính: (1) CPU đọc lệnh từ bộ nhớ, (2) CPU giải mã và thực hiện lệnh (nếu lệnh yêu cầu dữ liệu), CPU đọc dữ liệu từ bộ nhớ và (3) CPU ghi kết quả thực hiện lệnh vào bộ nhớ.

Kiến trúc máy tính Harvard chia bộ nhớ trong thành hai phần riêng rẽ: Bộ nhớ lưu chương trình và bộ nhớ lưu dữ liệu. Hai hệ thống bus riêng được sử dụng để kết nối CPU với bộ nhớ lưu chương trình và bộ nhớ lưu dữ liệu. Mỗi hệ thống bus đều có đầy đủ ba thành phần để truyền dẫn các tín hiệu địa chỉ, dữ liệu và điều khiển. Máy tính dựa trên kiến trúc Harvard có khả năng đạt được tốc độ xử lý cao hơn máy tính dựa trên kiến trúc von-Neumann do kiến trúc Harvard hỗ trợ hai hệ thống bus độc lập với băng thông lớn hơn. Nhờ có hai hệ thống bus độc lập, hệ thống nhớ trong kiến trúc Harvard hỗ trợ nhiều lệnh truy nhập bộ nhớ tại một thời điểm, giúp giảm xung đột truy nhập bộ nhớ, đặc biệt khi CPU sử dụng kỹ thuật đường ống (pipeline).

Điểm khác nhau:

Kt von-Neumman sử dụng một bộ nhớ duy nhất để lưu lệnh và dữ liệu và 1 hệ thống bus để kết nối; còn Havard sử dụng 2 bộ nhớ, 1 lưu chương trình, 1 lưu dữ liệu và 2 hệ thống bus riêng để kết nối từng thành phần với CPU.

Các lệnh trong hệ thống von-Neumman được thực hiện tuần tự còn hệ thống Havard hỗ trợ nhiều lệnh truy cập bộ nhớ tại một thời điểm nên tốc độ xử lý của Havard cao hơn và tiên tiến hơn von-Neumman.

Vẽ sơ đồ nguyên lý cấu trúc bên trong của CPU. Trình bày chu trình CPU xử lý các lệnh của một chương trình.

Chu trình xử lý các lệnh:

1. Khi một chương trình được kích hoạt, hệ điều hành  nạp mã chương trình vào bộ nhớ trong;

2. Địa chỉ của ô nhớ chứa lệnh đầu tiên của chương trình được nạp vào bộ đếm chương trình PC;

3. Địa chỉ ô nhớ chứa lệnh từ PC được chuyển đến bus địa chỉ thông qua thanh ghi MAR;

4. Bus địa chỉ chuyển địa chỉ ô nhớ đến đơn vị quản lý bộ nhớ;

5. MMU chọn ra ô nhớ và thực hiện lệnh đọc nội dung ô nhớ;

6. Lệnh (chứa trong ô nhớ) đợc chuyển ra bus dữ liệu và tiếp theo đợc chuyển tiếp đến thanh ghi MBR;

7. MBR chuyển lệnh đến thanh ghi lệnh IR; IR chuyển lệnh vào bộ điều khiển CU;

8. CU giải mã lệnh và sinh các tín hiệu điều khiển cần thiết, yêu cầu các bộ phận chức năng của CPU, như ALU thực hiện lệnh;

9. Giá trị địa chỉ trong bộ đếm PC được tăng lên 1 đơn vị lệnh và nó trỏ đến địa chỉ của ô nhớ chứa lệnh tiếp theo;

10. Các bớc từ 3-9 được lặp lại với tất cả các lệnh của chương trình.

Chế độ địa chỉ của vi xử lý là gì? So sánh hai chế độ địa chỉ gián tiếp qua thanh ghi và gián tiếp qua ô nhớ. Trong hai chế độ địa chỉ nêu trên, chế độ địa chỉ nào được sử dụng phổ biến trong thực tế hơn? Tại sao?

Chế độ địa chỉ là phương thức hoặc cách thức CPU tổ chức các toán hạng của lệnh. Chế độ địa chỉ cho phép CPU kiểm tra dạng lệnh và tìm các toán hạng của lệnh. Số lượng các chế độ địa chỉ phụ thuộc vào thiết kế của CPU.

So sánh: Nếu thanh ghi được sử dụng để lưu địa chỉ ô nhớ ta có chế độ địa chỉ gián tiếp qua thanh ghi; ngược lại nếu ô nhớ được dùng để lưu địa chỉ ô nhớ ta có chế độ địa chỉ gián tiếp qua ô nhớ.

Chế độ địa chỉ gián tiếp qua thanh ghi phổ biến hơn vì chế độ địa chỉ gián tiếp qua thanh ghi chỉ yêu cầu 1 tham chiếu bộ nhớ cho một truy cập, còn chế độ địa chỉ gián tiếp qua ô nhớ phải cần tới 2 tham chiếu bộ nhớ cho 1 truy cập.

Nêu cấu trúc phân cấp của hệ thống bộ nhớ máy tính? Tại sao trong thực tế hệ thống nhớ thường được tổ chức theo mô hình phân cấp?

Cấu trúc phân cấp hệ thống nhớ, gồm các phần chính: các thanh ghi của CPU, bộ nhớ cache, bộ nhớ chính và bộ nhớ ngoài.

Trong cấu trúc phân cấp hệ thống nhớ, dung lượng các thành phần tăng theo chiều từ các thanh ghi của CPU đến bộ nhớ ngoài. Ngược lại, tốc độ truy nhập hay băng thông và giá thành một đơn vị nhớ tăng theo chiều từ bộ nhớ ngoài đến các thanh ghi của CPU. Như vậy,

các thanh ghi của CPU có dung lượng nhỏ nhất nhưng có tốc độ truy cập nhanh nhất và cũng

có giá thành cao nhất. Bộ nhớ ngoài có dung lượng lớn nhất, nhưng tốc độ truy cập thấp nhất.

Bù lại, bộ nhớ ngoài có giá thành rẻ nên có thể được sử dung với dung lượng lớn.

Trong thực tế hệ thống nhớ thường được tổ chức theo mô hình phân cấp vì:

Cấu trúc phân cấp trong hệ thống nhớ có thể giúp tăng hiệu năng hệ thống  do nó giúp dung hoà được CPU có tốc độ cao và phần bộ nhớ chính và bộ nhớ ngoài có tốc độ thấp. CPU sẽ chủ yếu trực tiếp truy cập bộ nhớ cache có tốc độ cao, và cache sẽ có nhiệm vụ chuyển trước các dữ liệu cần thiết về từ bộ nhớ chính. Nhờ vậy, CPU sẽ không phải thường xuyên truy cập trực tiếp bộ nhớ chính và bộ nhớ ngoài để tìm dữ.

Cấu trúc phân cấp trong hệ thống nhớ có thể giúp giảm giá thành chế tạo hệ thống. Cơ sở chính là trong hệ thống nhớ phân cấp, các thành phần có tốc độ cao và đắt tiền được sử dụng với dung lợng rất nhỏ, còn các thành phần có tốc độ thấp và rẻ tiền được sử dụng với dung lượng lớn hơn.

Lệnh máy tính là gì? Nêu các dạng toán hạng của lệnh.

Lệnh máy tính là một từ nhị phân được gán một nhiệm vụ cụ thể. Các lệnh của chương trình được lưu trong bộ nhớ và chúng lần lượt được CPU đọc, giải mã và thực hiện. Tập lệnh máy tính thường gồm nhiều lệnh có thể được chia thành một số nhóm theo chức năng: nhóm các lệnh vận chuyển dữ liệu, nhóm các lệnh tính toán, nhóm các lệnh điều kiện và rẽ nhánh và một số lệnh khác

Các dạng toán hạng của lệnh:

-Toán hạng dạng 3 địa chỉ: Dạng: opcode addr1, addr2, addr3

Mỗi địa chỉ addr1, addr2, addr3 tham chiếu đến một ô nhớ hoặc một thanh ghi

-Toán hạng dạng 2 địa chỉ: Dạng: opcode addr1, addr2

Mỗi địa chỉ addr1, addr2, tham chiếu đến một ô nhớ hoặc một thanh ghi

-Toán hạng dạng 1 địa chỉ: Dạng: opcode addr2

Địa chỉ addr2 tham chiếu đến một ô nhớ hoặc một thanh ghi. Ngoài ra, thanh ghi tích luỹ Racc được sử dụng và có vai trò như addr1 trong toán hạng dạng 2 địa chỉ.

-Toán hạng dạng 1,5 địa chỉ: Dạng: opcode addr1, addr2

Một địa chỉ tham chiếu đến một ô nhớ và địa chỉ còn lại tham chiếu đến một thanh ghi. Dạng 1,5 địa chỉ là dạng toán hạng hỗn hợp giữa ô nhớ và thanh ghi.

-Toán hạng 0 địa chỉ thường được sử dụng trong các lệnh thao tác với ngăn xếp: PUSH và POP

Nêu nguyên lý đọc thông tin từ đĩa quang CD

Việc đọc thông tin trên đĩa quang được thực hiện trong ổ đĩa quang theo các bước:

1. Tia laser từ điốt phát laser đi qua bộ tách tia đến gương quay;

2. Gương quay được điều khiển bởi tín hiệu đọc, lái tia laser đến vị trí cần đọc trên mặt đĩa;

3. Tia phản xạ từ mặt đĩa phản ánh mức lồi lõm trên mặt đĩa quay trở lại gương quay;

4. Gương quay chuyển tia phản xạ về bộ tách tia và sau đó đến bộ cảm biến quang điện;

5. Bộ cảm biến quang điện chuyển đổi tia laser phản xạ thành tín hiệu điện đầu ra. Cường độ của tia laser được biểu diễn thành mức tín hiệu ra.

Phân tích các điểm giống và khác nhau của SRAM và DRAM. Tại sao SRAM nhanh hơn DRAM và DRAM rẻ hơn SRAM?

Giống nhau: Đều là bộ nhớ RAM nên có các đặc điểm chung của RAM là: được chế tạo theo công nghệ bán dẫn và thuộc loại bộ nhớ không ổn định, tức là, thông tin trong RAM chỉ tồn tại khi có nguồn điện nuôi và mất khi không còn nguồn điện nuôi, cho phép truy cập ngẫu nhiên – các ô nhớ có thể được truy cập một cách ngẫu nhiên không theo trật tự nào và tốc truy cập các ô nhớ là tương đương nhau.

Khác nhau: SRAM: mỗi bit của SRAM được cấu tạo dựa trên mạch lật, SRAM có tốc độ truy cập cao là do các bit có cấu trúc đối xứng và thông tin trong bit SRAM ổn định nên không cần quá trình làm tươi. Tuy nhiên, do mỗi bit SRAM cần nhiều transitor và có cấu trúc khá phức tạp nên mật độ cấy linh kiện thường thấp và giá thành SRAM khá cao.

 Còn DRAM được hình thành dựa trên tụ điện. Do bản chất tụ thường tự phóng điện nên điện tích trong tụ có xu hướng giảm dần dẫn đến thông tin trong tụ cũng bị mất theo. Để tránh bị mất thông tin, điện tích trong tụ cần được nạp lại thường xuyên – quá trình này được gọi là quá trình làm tươi các bit DRAM. DRAM thường có tốc độ truy cập chậm hơn so với SRAM là do: (1) có trễ khi nạp điện vào tụ, (2) cần quá trình làm tươi cho tụ và (3) các mạch DRAM thường dùng kỹ thuật dồn kênh để tiết kiệm đường địa chỉ. Tuy nhiên, do mỗi bit DRAM có cấu trúc đơn giản, sử dụng ít transitor nên mật độ cấy linh kiện thường cao và giá thành rẻ hơn nhiều so với SRAM.

RAID là gì?Tại sao RAID có thể nâng cao được tính tin cậy, tốc độ truy nhập và dung lượng hệ thống lưu trữ? Cấu hình RAID nào phù hợp hơn với máy chủ cơ sở dữ liệu trong ba loại RAID0,RAID1  và RAID10

RAID là một công nghệ tạo các thiết bị lưu trữ tiên tiến trên cơ sở các ổ đĩa cứng, nhằm đạt các yêu cầu về tốc độ cao, tính tin cậy cao và dung lượng lớn.

RAID có thể nâng cao được tính tin cậy, tốc độ truy nhập và dung lượng hệ thống lưu trữ vì RAID sử dụng 2 quy trình để chế tạo là kỹ thuật tạo lát đĩa và kỹ thuật soi gương đĩa. Kỹ thuật tạo lát đĩa điều khiển RAID cung cấp khả năng ghi và đọc song song các khối của cùng một đơn vị dữ liệu nhờ vậy tăng được tốc độ đọc ghi. Theo đó, các dữ liệu cần ghi được chia thành các khối cùng kích thước và được ghi đồng thời vào các ổ đĩa vật lý độc lập. Tương tự, trong quá trình đọc, các khối của dữ liệu cần đọc được đọc đồng thời từ các đĩa cứng độc lập, giúp giảm thời gian đọc.

Kỹ thuật soi gơng đĩa giúp đạt độ tin cậy cao cho hệ thống lưu trữ. Theo đó, dữ liệu cũng được chia thành các khối và mỗi khối được ghi đồng thời lên hai hay nhiều ổ đĩa độc lập. Như vậy, tại mọi thời điểm ta đều có nhiều bản sao dữ liệu trên các đĩa cứng độc lập, đảm bảo tính an toàn cao. Và giúp tăng dung lượng bằng các đĩa độc lập tham gia tạo RAID.

Cấu hình RAID 10 phù hợp với máy chủ CSDL vì nó là sự kết hợp của RAID 0 và RAID 1 nên đạt được cả tốc độ cao và tính tin cậy cao nên rất phù hợp với các hệ thống máy chủ đòi hỏi tính an toàn cao, hiệu năng lớn như máy chủ cơ sở dữ liệu.

Bộ nhớ đệm (cache) là gì? Vai trò của bộ nhớ đệm (cache)? Phân tích các nguyên lý hoạt động của bộ nhớ đệm (cache)? Tại sao bộ nhớ đệm (cache) có thể làm tăng hiệu năng và giảm giá thành hệ thống?

Cache là bộ nhớ đóng vai trò trung gian, trung chuyển dữ liệu từ bộ nhớ chính về CPU và ngược lại. Cache có dung lượng tương đối nhỏ, khoảng từ vài chục KB đến vài chục MB. Tốc độ truy cập cache cao, nhưng giá thành còn khá đắt. Cache được coi là bộ nhớ “thông minh” do có khả năng đoán trước được nhu cầu lệnh và dữ liệu của CPU. Cache “đoán” và tải trước các lệnh và dữ liệu CPU cần sử dụng từ bộ nhớ chính, nhờ vậy giúp CPU giảm thời gian truy cập hệ thống nhớ, tăng tốc độ xử lý.

- Vai trò : Cache giúp tăng hiệu năng hệ thống và giảm giá thành sẩn xuất.

- Nguyên lý hoạt động :

Để có được sự thông minh, cache hoạt động dựa trên hai nguyên lý cơ bản: nguyên lý lân cận về không gian và nguyên lý lân cận về thời gian.

+ Nguyên lý lân cận về không gian có thể phát biểu nh sau: “Nếu một ô nhớ đang được truy nhập thì xác xuất các ô nhớ liền kề với nó được truy nhập trong tương lai gần là rất cao”. Lân cận về không gian thường được áp dụng cho nhóm lệnh hoặc dữ liệu có tính tuần tự cao trong không gian chương trình.

+ Nguyên lý lân cận về thời gian chú trọng hơn đến tính lặp lại của việc truy nhập các mẩu thông tin trong một khoảng thời gian tương đối ngắn. Có thể phát biểu nguyên lý này như sau: “Nếu một ô nhớ đang được truy nhập thì xác xuất nó được truy nhập lại trong tương lai gần là rất cao”. Lân cận về thời gian được áp dụng cho dữ liệu và nhóm các lệnh trong vòng lặp.

-Cache có thể làm tăng hiệu năng và giảm giá thành hệ thống vì : 

+Cache có thể giúp tăng hiệu năng hệ thống là nhờ cache có khả năng dung hoà được CPU có tốc độ cao và bộ nhớ chính có tốc độ thấp làm cho thời gian trung bình CPU truy nhập dữ liệu từ bộ nhớ chính tiệm cận thời gian truy nhập cache.

+ Cache có giá thành trên một đơn vị nhớ cao hơn bộ nhớ chính, nhưng do tổng dung lượng cache thường khá nhỏ nên cache không làm tăng giá thành hệ thống nhớ quá mức.

So sánh ba phương pháp thay thế dòng cache: ngẫu nhiên, FIFO và LRU. Phương pháp nào cho hệ số trúng (hit) cao nhất? Giải thích?

So sánh 3 phương pháp thay thế dòng cache ngẫu nhiên, FIFO và LRU :

+Thay thế ngẫu nhiên : Các dòng cache được lựa chọn để thay thế một cách ngẫu nhiên, không theo một quy luật nào.

+Thay thế FIFO : các dòng nhớ được nạp vào cache trước sẽ được chọn để thay thế trước. Phương pháp này luôn có khuynh hướng loại bỏ các dòng cache có thời gian sử dụng lâu nhất.

+Thay thế LRU : các dòng cache được lựa chọn để thay thế là các dòng ít được sử dụng gấn đây nhất.

Phương pháp thay thế LRU có hệ số trúng cao nhất vì phương pháp thay thế ngẫu nhiên  không xem xét đến các dòng cache đang thực sự được sử dụng nên có hệ số hit thấp nhất. Phương pháp thay thế FIFO vẫn chưa thực sự xem xét đến các dòng cache đang thực sự đợc sử dụng - một dòng cache “già” vẫn có thể đang được sử dụng còn phương pháp thay thế LRU có xem xét đến các dòng đang thực sự được sử dụng – tuân theo yếu tố lân cận theo thời gian một cách chặt chẽ nên có hệ số hit cao hơn phương pháp thay thế FIFO do đó là cao nhất trong 3 phương pháp.

Phân tích các điểm giống và khác nhau của phương pháp ánh xạ trực tiếp và ánh xạ kết hợp (liên kết) đầy đủ. Tại sao phương pháp ánh xạ tập kết hợp (liên kết nhóm)  lại được sử dụng phổ biến trong cache hơn trong thực tế so với hai phương pháp ánh xạ trên?

Giống nhau : Cache đều được chia thành n dòng (line) đánh số từ 0 đến n-1

Khác nhau : ánh xạ trực tiếp chia bộ nhớ chính thành m trang, mỗi trang lại được chia thành n dòng còn phương pháp ảnh xạ kết hợp đầy đủ chia bộ nhớ chính thành m dòng. Khi biết được địa chỉ của dòng trong bộ nhờ thì ta biết vị trí của nó trong cache ở phương pháp ánh xạ trực tiếp còn phương pháp ánh xạ kết hợp đầy đủ thì không. Trong phương pháp ánh xạ trực tiếp cache sử dụng địa chỉ ánh  trực tiếp gồm 3 thành phần : Tag, Line, Word để quản lý các ô nhớ được nạp còn Phương pháp ánh xạ kết hợp đầy đủ chỉ gồm 2 thành phần : Tag, Word.

Phương pháp ánh xạ tập kết hợp được sử dụng phổ biến trong cache hơn so với 2 phương pháp trên vì phương pháp ánh xạ tập kết hợp tận dụng được ưu điểm của cả hai phương pháp ánh xạ trực tiếp và ánh xạ kết hợp đầy đủ: nhanh do ánh xạ trực tiếp được sử dụng cho ánh xạ dòng, ít xung đột do ánh xạ từ các trang bộ nhớ đến các đường cache là không cố định. Nhờ vậy, phân bố sử dụng không gian cache đồng đều hơn và đạt hệ số hit cao hơn. Nhược điểm lớn nhất của phương pháp này là có độ phức tạp thiết kế và điều khiển cao do cache được chia thành một số đường, thay vì chỉ một đường duy nhất.

Bạn đang đọc truyện trên: Truyen2U.Pro

#ửerwer