Thâm Quyến OK Công nghệ sinh học Công ty TNHH (SZOB)
Categories

    Thâm Quyến OK Công nghệ sinh học Công ty TNHH (SZOB)

    HK Thêm: 6 / F, Trung tâm thương mại Fo Tân, 26-28 Phố Âu Pui Wan, Tân Tần, Shatin, Hồng Kông

    Trung Quốc đại lục Địa chỉ: 8F, Fuxuan Building, số 46, East Heping Rd, Longhua New District, Thâm Quyến, Trung Quốc PRC

    Email: nicole@ok-biotech.com

    Smile@ok-biotech.com

    Web: www.ok-biotech.com

    Điện thoại: + 852-64872529

    Fax: + 852-54852411

Bạn đang ở đây: Trang chủ > Tin tức > Nội dung

AI Landmark: TensorFlow, mã nguồn mở của Google AI, tín hiệu thay đổi lớn trong phần cứng quá

www.ok-Biotech.com

AI  Landmark: 10 SorFlow, của Google Open Source AI, tín hiệu thay đổi lớn trong phần cứng quá

TRONG mở nguồn trí tuệ nhân tạo động cơ của nó — tự do chia sẻ một trong những sáng tạo quan trọng nhất của nó với phần còn lại của Internet-Google cho thấy làm thế nào thay đổi thế giới của phần mềm máy tính.


Những ngày này, gã khổng lồ Internet lớn thường xuyên chia sẻ các phần mềm ngồi ở trung tâm của hoạt động trực tuyến của họ. Mã nguồn mở tăng tốc sự tiến bộ của công nghệ. Mở nguồn động cơ TensorFlow AI, Google có thể ăn tất cả các loại máy-học nghiên cứu ngoài công ty, và trong nhiều cách, nghiên cứu này sẽ thức ăn trở lại Google.


Nhưng công cụ của Google AI cũng phản ánh như thế nào thế giới của máy vi tính đang thay đổi. Bên trong Google, khi giải quyết công việc như hình ảnh nhận dạng và các bài phát biểu công nhận và các ngôn ngữ bản dịch, TensorFlow phụ thuộc vào máy được trang bị GPU, hoặc đồ họa, xử lý các đơn vị, khoai tây chiên được thiết kế để render đồ họa cho các trò chơi và như thế, nhưng cũng đã chứng minh lão luyện lúc các nhiệm vụ khác. Và nó phụ thuộc vào các chip hơn nhận ra vũ trụ công nghệ cao lớn hơn.


Theo kỹ sư Google Jeff Dean, ai giúp Giám sát các công việc của công ty AI, Google sử dụng GPU không chỉ trong đào tạo Dịch vụ trí tuệ nhân tạo của mình, mà còn trong việc điều hành các dịch vụ này-trong việc cung cấp chúng với các điện thoại thông minh được tổ chức trong tay của người tiêu dùng.


Mà đại diện cho một sự thay đổi đáng kể. Ngày nay, bên trong Trung tâm dữ liệu máy tính lớn của nó, Facebook sử dụng GPU để đào tạo Dịch vụ nhận dạng khuôn mặt của mình, nhưng khi cung cấp các dịch vụ cho Facebookers — thực sự xác định khuôn mặt trên các mạng xã hội-nó sử dụng bộ vi xử lý máy tính truyền thống, hoặc CPU. Và thiết lập cơ bản này là chuẩn công nghiệp, như là "Schrep" Facebook CTO Mike Schroepfer gần đây đã chỉ trong một cuộc họp với các phóng viên tại trụ sở chính của công ty Menlo Park, California. Nhưng như Google tìm kiếm một mức độ lớn hơn bao giờ hết hiệu quả, có những trường hợp công ty cả đào tạo và thực hiện các mô hình AI trên GPU bên trong Trung tâm dữ liệu. Và nó không phải chỉ có một di chuyển theo hướng này. Trung Quốc tìm kiếm khổng lồ Baidu là xây dựng một hệ thống AI mới mà các công trình trong cùng một cách. "Điều này là khá một sự thay đổi mô hình lớn," nói rằng nhà khoa học trưởng Baidu Andrew Ng.


Sự thay đổi là tốt tin tức cho nVidia, khổng lồ chip chuyên GPU. Và nó trỏ đến một lỗ hổng trong các sản phẩm được cung cấp bởi Intel, hãng sản xuất chip lớn của thế giới. Intel không xây dựng các GPU. Một số các công ty Internet và các nhà nghiên cứu, Tuy nhiên, bây giờ khám phá FPGAs, hoặc mảng field-programmable gate, như là một thay thế cho GPU trên đấu trường AI, và Intel mới mua lại một công ty chuyên về các chip lập trình.


Dòng dưới cùng là AI đang chơi một vai trò ngày càng quan trọng trong các dịch vụ trực tuyến trên thế giới — và thay thế con chip kiến trúc đang chơi một vai trò ngày càng quan trọng trong AI. Hôm nay, điều này là đúng sự thật bên trong Trung tâm dữ liệu máy tính ổ dịch vụ trực tuyến của chúng tôi, và trong những năm tới, hiện tượng cùng có thể tia nước xuống các thiết bị di động mà chúng tôi thực sự sử dụng các dịch vụ này.


Sâu học tập trong hành động

Tại những nơi như Google, Facebook, Microsoft và Baidu, GPU đã chứng minh rất quan trọng để cái gọi là "deep learning" bởi vì họ có thể xử lý nhiều ít bit dữ liệu song song. Sâu học tập dựa trên mạng nơ-ron-hệ thống xác định trang web của các tế bào thần kinh trong bộ não con người- và các mạng này được thiết kế để phân tích các số lượng lớn các dữ liệu ở tốc độ. Để dạy các mạng làm thế nào để nhận ra một con mèo, ví dụ, bạn ăn chúng vô số hình ảnh của con mèo. GPU là tốt lúc này loại điều. Thêm vào đó, họ không tiêu thụ năng lượng càng nhiều như là CPU.


Tuy nhiên, thông thường, nhất là khi các công ty này đặt sâu học tập thành hành động-khi họ cung cấp một ứng dụng điện thoại thông minh, nhận biết mèo, nói — ứng dụng này được thúc đẩy bởi một hệ thống Trung tâm dữ liệu chạy trên CPU. Theo Bryan Catanzaro, người giám sát các hệ thống máy tính hiệu suất cao trong nhóm AI tại Baidu, đó là vì GPU chỉ hiệu quả nếu bạn đang không ngừng cho ăn chúng dữ liệu, và phần mềm máy chủ Trung tâm dữ liệu mà các ổ đĩa thông thường các ứng dụng điện thoại thông minh không nguồn cấp dữ liệu dữ liệu chip bằng cách này. Thông thường, khi yêu cầu đến từ ứng dụng điện thoại thông minh, máy chủ đối phó với chúng cùng một lúc. Catanzaro giải thích, nếu bạn sử dụng GPU để riêng biệt xử lý yêu cầu mỗi khi nó đi vào Trung tâm dữ liệu, "nó là khó khăn để có được đủ làm việc vào GPU để giữ cho nó chạy một cách hiệu quả. GPU không bao giờ thực sự đi."


Điều đó nói rằng, nếu bạn luôn có thể đưa dữ liệu vào GPU của bạn trong giai đoạn thực hiện này, họ có thể cung cấp các hiệu quả hơn so với CPU. Baidu làm việc hướng tới điều này với các nền tảng AI mới của nó. Về cơ bản, như yêu cầu dòng vào Trung tâm dữ liệu, nó yêu cầu nhiều gói vào một toàn bộ lớn hơn mà sau đó có thể được nạp vào GPU. "Chúng tôi lắp ráp các yêu cầu này do đó, thay vì yêu cầu xử lý để làm một yêu cầu tại một thời gian, chúng tôi có nó làm yêu cầu nhiều lúc một thời gian," Catanzaro nói. "Điều này về cơ bản sẽ giúp GPU bận rộn."


Nó không rõ ràng làm thế nào Google cách tiếp cận vấn đề này. Nhưng công ty cho biết đã có trường hợp nơi TensorFlow chạy trên GPU trong giai đoạn thực hiện. "Chúng tôi đôi khi sử dụng GPU cho đào tạo và công nhận, tùy thuộc vào vấn đề," xác nhận công ty phát ngôn viên Jason Freidenfelds.


Điều đó có vẻ như là một điều nhỏ. Nhưng nó thực sự là một vấn đề lớn. Các hệ thống lái xe các ứng dụng này AI khoảng hàng chục, hàng trăm, thậm chí hàng ngàn máy. Và các hệ thống này đang chơi một vai trò ngày càng lớn trong cuộc sống hàng ngày của chúng tôi. Google bây giờ sử dụng sâu học tập không chỉ để xác định hình ảnh, nhận ra lời nói và dịch từ một ngôn ngữ khác, mà còn để tăng cường kết quả tìm kiếm. Và các công ty đang đẩy mạnh công nghệ tương tự vào quảng cáo nhắm mục tiêu, bảo mật máy tính, và thậm chí cả các ứng dụng hiểu ngôn ngữ tự nhiên. Nói cách khác, các công ty như Google và Baidu sẽ cần một nhiều khủng khiếp của GPU.


AI ở khắp mọi nơi

Cùng lúc đó, TensorFlow cũng đẩy một số AI này ra khỏi Trung tâm dữ liệu hoàn toàn và vào điện thoại thông minh của mình.


Thông thường, khi bạn sử dụng một sâu học ứng dụng trên điện thoại của bạn, nó không thể chạy mà không gửi thông tin trở lại Trung tâm dữ liệu. Tất cả AI có xảy ra. Khi bạn vỏ cây một lệnh vào điện thoại Android của bạn, ví dụ, nó phải gửi lệnh của bạn cho một Google Trung tâm dữ liệu, nơi nó có thể xử lý trên một trong những mạng lưới khổng lồ của CPU hay GPU.


Nhưng Google cũng đã honed AI cơ chế do đó, trong một số trường hợp, nó có thể thực hiện trên điện thoại riêng của mình. "Bạn có thể mô tả mô hình và chạy nó trên điện thoại di động," Dean nói, "và bạn không cần phải thực hiện bất kỳ thay đổi thực để mô tả mô hình hoặc bất kỳ mã."


Điều này là làm thế nào công ty xây dựng ứng dụng Google Translate Google đào tạo các ứng dụng để nhận biết từ và dịch chúng sang ngôn ngữ khác bên trong Trung tâm dữ liệu của nó, nhưng sau khi được đào tạo, các ứng dụng có thể chạy trên riêng của mình-mà không có kết nối Internet. Bạn có thể chỉ cho điện thoại của bạn là một dấu hiệu pháp đường, và nó sẽ ngay lập tức dịch nó sang tiếng Anh.


Đó là khó khăn để làm. Sau khi tất cả, một điện thoại cung cấp một lượng hạn chế sức mạnh xử lý. Tuy nhiên, như thời gian đi vào, nhiều hơn và nhiều hơn nữa những công việc này sẽ di chuyển vào điện thoại riêng của mình. Sâu học phần mềm sẽ cải thiện, và điện thoại di động phần cứng sẽ cải thiện là tốt. "Tương lai của sâu học tập trên nhỏ, điện thoại di động, điện thoại edge," ông Chris Nicholson, người sáng lập của một sâu học tập khởi động được gọi là Skymind.


GPU, ví dụ, đã bắt đầu tìm cách của họ vào điện thoại, và các nhà sản xuất phần cứng luôn luôn đẩy mạnh để cải thiện tốc độ và hiệu suất của CPU. Trong khi đó, IBM là xây dựng một chip "neuromorphic" được thiết kế đặc biệt cho nhiệm vụ AI, và theo những người đã sử dụng nó, nó cũng là phù hợp với thiết bị di động.


Hôm nay, của Google AI động cơ chạy trên server CPU và GPU cũng như chip thường được tìm thấy trong điện thoại thông minh. Nhưng theo Google các kỹ sư Rajat Monga, công ty xây dựng TensorFlow trong một cách mà các kỹ sư có thể dễ dàng port nó để các nền tảng phần cứng khác. Bây giờ là công cụ mã nguồn mở, bên ngoài có thể bắt đầu làm như vậy, quá. Như Dean mô tả TensorFlow: "Nó nên được di động cho một loạt các phần cứng phụ."


Vì vậy, Yeah, thế giới của phần cứng đang thay đổi-hầu như là một cách nhanh chóng như là thế giới của phần mềm.


Tìm thêm: Flibanserin, CAS 167933-07-5, Testosterone, CAS 58-22-0, Trenbolone axetat, CAS 10161-34-9, Metandienone, CAS 72-63-9, Exemestane, 107868-30-4,

Liên hệ với chúng tôi
Địa chỉ:
Điện thoại: +852 6679 4580
 Fax:
 Thư điện tử:smile@ok-biotech.com
Thâm Quyến OK Công nghệ sinh học Công ty TNHH (SZOB)
Share: