Thâm Quyến OK Công nghệ sinh học Công ty TNHH (SZOB)
Categories
Trang chủ > Tin tức > Nội dung

AI Landmark: TensorFlow, AI mã nguồn mở của Google, các dấu hiệu thay đổi lớn trong phần cứng quá

www.ok-biotech.com

AI Landmark: Ten sorFlow, AI mã nguồn mở của Google, các dấu hiệu thay đổi lớn về phần cứng quá

TRONG VIỆC CUNG CẤP công cụ tình báo nhân tạo-tự do chia sẻ một trong những sáng tạo quan trọng nhất của nó với phần còn lại của Internet-Google cho thấy thế giới của phần mềm máy tính đang thay đổi như thế nào.


Những ngày này, những người khổng lồ Internet khổng lồ thường chia sẻ phần mềm nằm trong lòng các hoạt động trực tuyến của họ. Nguồn mở đẩy nhanh sự tiến bộ của công nghệ. Trong việc mở nguồn động cơ TensorFlow AI, Google có thể cung cấp cho tất cả các loại nghiên cứu máy móc bên ngoài công ty và theo nhiều cách, nghiên cứu này sẽ cung cấp lại cho Google.


Nhưng động cơ AI của Google cũng phản ánh thế giới của phần cứng máy tính đang thay đổi như thế nào. Bên trong Google, khi giải quyết các nhiệm vụ như nhận diện hình ảnh và nhận dạng giọng nói và dịch ngôn ngữ, TensorFlow phụ thuộc vào các máy được trang bị GPU hoặc các bộ xử lý đồ hoạ, các chip được thiết kế để render đồ họa cho các trò chơi và những thứ tương tự, nhiệm vụ. Và nó phụ thuộc vào những con chip này nhiều hơn thế giới công nghệ lớn hơn nhận ra.


Theo kỹ sư của Google Jeff Dean, người giúp giám sát công việc AI của công ty, Google sử dụng GPU không chỉ trong việc đào tạo các dịch vụ trí tuệ nhân tạo của họ, mà còn trong việc vận hành các dịch vụ này - trong việc cung cấp chúng cho điện thoại thông minh được nắm giữ trong tay người tiêu dùng.


Điều đó đại diện cho một sự thay đổi đáng kể. Ngày nay, bên trong các trung tâm dữ liệu máy tính khổng lồ, Facebook sử dụng GPU để đào tạo các dịch vụ nhận dạng khuôn mặt, nhưng khi cung cấp những dịch vụ này cho Facebookers - thực sự xác định khuôn mặt trên các mạng xã hội - nó sử dụng bộ xử lý máy tính truyền thống hoặc CPU. Và thiết lập cơ bản này là tiêu chuẩn ngành công nghiệp, như Schroepfer Mike Schrep của Facebook đã chỉ ra trong một cuộc họp với các phóng viên tại trụ sở công ty Menlo Park, California. Nhưng khi Google tìm kiếm mức độ hiệu quả hơn bao giờ hết, có nhiều trường hợp công ty cùng luyện tập và thực hiện các mô hình AI trên GPU bên trong trung tâm dữ liệu. Và nó không phải là người duy nhất di chuyển theo hướng này. Công ty nghiên cứu khổng lồ của Trung Quốc Baidu đang xây dựng một hệ thống AI mới hoạt động theo cùng một cách. Nhà khoa học Andrew Ng của Baidu nói: "Đây là một sự thay đổi mô hình lớn.


Sự thay đổi này là tin tốt lành cho nVidia, nhà sản xuất chip khổng lồ chuyên về GPU. Và nó chỉ ra một lỗ hổng trong các sản phẩm được cung cấp bởi Intel, nhà sản xuất chip lớn nhất thế giới. Intel không xây dựng GPU. Tuy nhiên, một số công ty và nhà nghiên cứu Internet hiện đang tìm kiếm các FPGA, hoặc các mảng cổng lập trình theo trường, như là một sự thay thế cho GPU trong lĩnh vực AI, và Intel gần đây đã mua lại một công ty chuyên về các chip lập trình này.


Điểm mấu chốt là AI đang đóng một vai trò ngày càng quan trọng trong các dịch vụ trực tuyến trên thế giới và các kiến ​​trúc chip thay thế đang đóng một vai trò ngày càng quan trọng trong AI. Ngày nay, điều này đúng trong các trung tâm dữ liệu máy tính đang thúc đẩy dịch vụ trực tuyến của chúng tôi, và trong những năm tới, hiện tượng tương tự có thể rơi xuống các thiết bị di động mà chúng tôi thực sự sử dụng các dịch vụ này.


Học tập sâu trong hành động

Tại những nơi như Google, Facebook, Microsoft và Baidu, GPU đã chứng minh được tầm quan trọng đặc biệt đối với cái gọi là "học tập sâu sắc" bởi vì họ có thể xử lý rất nhiều dữ liệu song song. Học sâu dựa vào mạng nơ-ron-hệ thống gần đúng mạng lưới các tế bào thần kinh trong não người - và các mạng này được thiết kế để phân tích khối lượng lớn dữ liệu ở tốc độ. Để dạy cho những mạng này biết nhận ra một con mèo, bạn có thể cho chúng ăn vô số những bức ảnh về mèo. GPU là tốt ở loại điều. Thêm vào đó, họ không tiêu thụ nhiều năng lượng như CPU.


Nhưng thông thường, khi các công ty này tập trung nghiên cứu sâu vào hành động - khi họ đưa ra ứng dụng điện thoại thông minh nhận dạng mèo, thì ứng dụng này được điều khiển bởi một hệ thống trung tâm dữ liệu chạy trên các CPU. Theo Bryan Catanzaro, người giám sát các hệ thống máy tính hiệu suất cao trong nhóm AI tại Baidu, đó là bởi vì GPU chỉ hiệu quả nếu bạn thường xuyên cho chúng dữ liệu, và phần mềm máy chủ trung tâm dữ liệu thường đưa ứng dụng smartphone không cung cấp dữ liệu để chip theo cách này. Thông thường, khi các yêu cầu đến từ các ứng dụng dành cho điện thoại thông minh, các máy chủ sẽ đối phó với họ một lần. Như Catanzaro giải thích, nếu bạn sử dụng GPU để xử lý riêng từng yêu cầu khi vào trong trung tâm dữ liệu, "thật khó để có đủ công việc vào GPU để nó hoạt động hiệu quả. GPU không bao giờ thực sự được đi. "


Điều đó nói rằng, nếu bạn luôn có thể nạp dữ liệu vào GPU của mình trong giai đoạn thực hiện này, chúng có thể mang lại hiệu quả lớn hơn nhiều so với CPU. Baidu đang làm việc này với nền tảng AI mới. Về cơ bản, khi yêu cầu luồng vào trung tâm dữ liệu, nó gói nhiều yêu cầu vào một toàn bộ lớn hơn mà sau đó có thể đưa vào GPU. Catanzaro cho biết: "Chúng tôi tập hợp các yêu cầu này để thay vì yêu cầu bộ xử lý thực hiện một yêu cầu tại một thời điểm, chúng tôi yêu cầu nhiều yêu cầu cùng một lúc. "Điều này về cơ bản giữ GPU bận rộn hơn."


Không rõ cách Google tiếp cận vấn đề này như thế nào. Nhưng công ty cho biết đã có những trường hợp TensorFlow chạy GPU trong giai đoạn thực hiện. "Chúng tôi đôi khi sử dụng GPU cho cả đào tạo và công nhận, tùy thuộc vào vấn đề", người phát ngôn của công ty Jason Freidenfelds khẳng định.


Điều đó có vẻ như là một điều nhỏ. Nhưng nó thực sự là một việc lớn. Các hệ thống điều khiển các ứng dụng AI này kéo dài hàng chục, hàng trăm, thậm chí hàng ngàn máy. Và những hệ thống này đang đóng một vai trò ngày càng lớn trong cuộc sống hàng ngày của chúng ta. Google giờ đây sử dụng việc học sâu không chỉ để xác định ảnh, nhận dạng từ nói và dịch từ một ngôn ngữ sang ngôn ngữ khác, mà còn để tăng kết quả tìm kiếm. Và các công ty khác đang thúc đẩy cùng một công nghệ vào việc nhắm mục tiêu quảng cáo, bảo mật máy tính và thậm chí cả các ứng dụng hiểu ngôn ngữ tự nhiên. Nói cách khác, các công ty như Google và Baidu sẽ cần rất nhiều GPU khủng khiếp.


AI ở mọi nơi

Đồng thời, TensorFlow cũng đang đẩy một số AI này ra khỏi trung tâm dữ liệu hoàn toàn và trên điện thoại thông minh.


Thông thường, khi bạn sử dụng ứng dụng học tập sâu trên điện thoại của mình, nó không thể chạy mà không gửi thông tin về trung tâm dữ liệu. Tất cả AI xảy ra ở đó. Ví dụ như khi bạn gõ lệnh vào điện thoại Android, bạn phải gửi lệnh của bạn tới trung tâm dữ liệu của Google, nơi nó có thể được xử lý trên một trong những mạng lớn của CPU hoặc GPU.


Nhưng Google cũng đã làm quen với động cơ AI của nó để nó, trong một số trường hợp, nó có thể thực hiện trên điện thoại của chính nó. "Bạn có thể mô tả mô hình và chạy nó trên điện thoại di động," Dean nói, "và bạn không phải thực hiện bất kỳ thay đổi thực sự mô hình mô tả hoặc bất kỳ mã."


Đây là cách công ty xây dựng ứng dụng Google Translate. Google đào tạo ứng dụng để nhận ra từ và dịch chúng sang ngôn ngữ khác bên trong trung tâm dữ liệu của nó, nhưng một khi nó được đào tạo, ứng dụng có thể chạy một mình - không có kết nối Internet. Bạn có thể chỉ đường điện thoại của bạn vào đường Pháp, và nó sẽ chuyển ngay sang tiếng Anh.


Thật khó để làm. Xét cho cùng, điện thoại cung cấp một lượng điện xử lý hạn chế. Nhưng theo thời gian, nhiều hơn và nhiều hơn nữa các nhiệm vụ sẽ di chuyển vào điện thoại của chính nó. Phần mềm học tập sâu sẽ được cải thiện, và phần cứng di động cũng sẽ được cải thiện. Chris Nicholson, người sáng lập ra một chương trình học tập sâu, gọi là Skymind, nói: "Tương lai của việc học sâu là trên các thiết bị nhỏ, di động.


Các GPU, ví dụ, đã bắt đầu tìm đường đi vào điện thoại, và các nhà sản xuất phần cứng luôn đẩy mạnh để cải thiện tốc độ và hiệu quả của CPU. Trong khi đó, IBM đang xây dựng một "chip neuromorphic" được thiết kế đặc biệt cho các nhiệm vụ AI, và theo những người đã sử dụng nó, nó rất thích hợp cho các thiết bị di động.


Ngày nay, động cơ AI của Google chạy trên các CPU máy chủ và GPU cũng như các chip thường thấy trong điện thoại thông minh. Tuy nhiên, theo kỹ sư của Google, Rajat Monga, công ty đã xây dựng TensorFlow theo cách mà các kỹ sư có thể dễ dàng chuyển sang các nền tảng phần cứng khác. Giờ đây, công cụ này là nguồn mở, những người bên ngoài cũng có thể bắt đầu làm như vậy. Dean mô tả TensorFlow: "Nó có thể mang theo nhiều phần cứng khác nhau."


Vì vậy, vâng, thế giới của phần cứng đang thay đổi - hầu như nhanh như thế giới của phần mềm.


Tìm thêm: Flibanserin, CAS 167933-07-5, Testosterone, CAS 58-22-0, Trenbolone acetate, CAS 10161-34-9, Metandienone, CAS 72-63-9, Exemestane, 107868-30-4,

Liên hệ với chúng tôi
Địa chỉ: HK: 6 / F, Trung tâm thương mại Fo Tân, 26-28 Phố Âu Pui Wan, Tân Tần, Shatin, Hồng Kông Thâm Quyến: 8F, tòa nhà Fuxuan, số 46, East Heping Rd, Longhua New District, Thâm Quyến, Trung Quốc PRC
Điện thoại: +852 6679 4580
 Fax:+852 6679 4580
 Thư điện tử:smile@ok-biotech.com
Thâm Quyến OK Công nghệ sinh học Công ty TNHH (SZOB)
Share: