10 najlepszych narzędzi do sztucznej inteligencji typu open source dla Linux

10 najlepszych narzędzi do sztucznej inteligencji typu open source dla Linux

W tym poście omówimy kilka najlepszych, otwartej sztucznej inteligencji (Ai) Narzędzia dla ekosystemu Linux. Obecnie, Ai jest jednym z stale rozwijających się dziedzin w nauce i technologii, z głównym skupieniem się na budowanie oprogramowania i sprzętu w celu rozwiązywania codziennych wyzwań życiowych w obszarach takich jak opieka zdrowotna, edukacja, bezpieczeństwo, produkcja, bankowość i wiele więcej.

Sugerowane przeczytanie: 20 bezpłatnych oprogramowania typu open source, które znalazłem w roku 2015

Poniżej znajduje się lista wielu platform zaprojektowanych i opracowanych do wspierania sztucznej inteligencji, które można wykorzystać w systemie Linux i ewentualnie wielu innych systemach operacyjnych. Pamiętaj, że ta lista nie jest ułożona w żadnej konkretnej kolejności zainteresowania.

1. Głębokie uczenie się dla Java (Deeplearning4J)

Deeplearning4J to klasa komercyjna, open source, wtyczka i gra, rozproszona biblioteka głęboko uczenia się dla języków programowania Java i Scala. Jest zaprojektowany specjalnie dla aplikacji związanych z biznesem i zintegrowany z Hadoop I Iskra Oprócz rozproszonych procesorów i GPU.

DL4J jest wydany pod Apache 2.0 Licencja i zapewnia obsługę GPU do skalowania na AWS i jest dostosowana do architektury mikro-serwisowej.

Deeplearning4J - Głębokie uczenie się dla Javy

Odwiedź stronę główną: http: // deeplearning4J.org/

2. Caffe - głębokie ramy uczenia się

Caffe jest modułową i ekspresyjną ramy głębokiego uczenia się oparte na prędkości. Jest wydany na licencji BSD 2-Klauzulę i już wspiera kilka projektów społecznościowych w takich obszarach, jak badania, prototypy startupowe, aplikacje przemysłowe w dziedzinach, takie jak wizja, mowa i multimedia.

Caffe - głębokie ramy uczenia się

Odwiedź stronę główną: http: // caffe.Berkeleyvision.org/

3. H20 - rozproszone ramy uczenia maszynowego

H20 to open source, szybki, skalowalny i rozproszony framework uczenia maszynowego, a także asortyment algorytmów wyposażonych w framework. Obsługuje mądrzejsze zastosowanie, takie jak głębokie uczenie się, zwiększenie gradientu, losowe lasy, uogólnione modelowanie liniowe (i.E Regresja logistyczna, elastyczna sieć) i wiele innych.

Jest to narzędzie sztucznej inteligencji zorientowanej na firmy do podejmowania decyzji z danych, umożliwia użytkownikom wyciąganie informacji z danych za pomocą szybszego i lepszego modelowania predykcyjnego.

H2O - rozproszone frameworka uczenia maszynowego

Odwiedź stronę główną: http: // www.H2O.ai/

4. Mllib - Biblioteka uczenia maszynowego

Mllib to otwarta, łatwa w użyciu i wysokowydajna biblioteka uczenia maszynowego opracowana w ramach Apache Spark. Zasadniczo jest łatwe do wdrożenia i może działać na istniejących klastrach i danych Hadoop.

Sugerowane przeczytanie: 12 najlepszych edytorów tekstu open source (GUI + CLI), jaki znalazłem w 2015 roku

Mllib wysyła również z kolekcją algorytmów do klasyfikacji, regresji, rekomendacji, grupowania, analizy przeżycia i wiele więcej. Co ważne, może być używany w językach programowania Python, Java, Scala i R.

Mllib - Biblioteka uczenia maszynowego

Odwiedź stronę główną: https: // iskra.Apache.org/mllib/

5. Apache Mahout

Kornak to ramy typu open source zaprojektowane do budowania skalowalnych aplikacji do uczenia maszynowego, ma trzy widoczne funkcje wymienione poniżej:

  1. Zapewnia proste i rozszerzalne miejsce do programowania
  2. Oferuje różnorodne algorytmy pakietowe dla Scala + Apache Spark, H20, a także Apache Flink
  3. Obejmuje Samaras, miejsce pracy w eksperymencie matematycznym wektorowym z składnią podobną do R
Apache Mahout

Odwiedź stronę główną: http: // mahout.Apache.org/

6. Otwórz bibliotekę sieci neuronowych (Opennn)

Opennn jest także biblioteką klas typu open source napisanej w C ++ do głębokiego uczenia się, służy do instrukcji sieci neuronowych. Jest to jednak optymalne tylko dla doświadczonych programistów i osób o ogromnych umiejętnościach uczenia maszynowego. Charakteryzuje się głęboką architekturą i wysokiej wydajności.

Opennn - Otwórz bibliotekę sieci neuronowych

Odwiedź stronę główną: http: // www.Opennn.internet/

7. Oryx 2

Oryx 2 jest kontynuacją początkowego projektu Oryx, opracowany na Apache Spark i Apache Kafka jako ponowne architektura architektury Lambda, choć poświęcona do osiągnięcia uczenia maszynowego w czasie rzeczywistym w czasie rzeczywistym.

Jest to platforma do tworzenia aplikacji i wysyłania w niektórych aplikacja.

Oryx2 - Ponowna architektura architektury Lambda

Odwiedź stronę główną: http: // oryx.IO/

8. Opencyc

Opencyc to portal typu open source dla największej i najbardziej wszechstronnej bazy wiedzy ogólnej i silnika rozumującego rozumowanie świata. Obejmuje dużą liczbę terminów CYC ułożonych w precyzyjnie zaprojektowanej onologii do zastosowania w obszarach takich jak:

  1. Rich Modelowanie domeny
  2. Systemy ekspertów specyficznych dla domeny
  3. Zrozumienie tekstu
  4. Integracja danych semantycznych, a także gry AI oraz wiele innych.
Opencyc

Odwiedź stronę główną: http: // www.Cyc.com/platform/opencyc/

9. Apache Systemml

Systemml to platforma sztucznej inteligencji na otwartym poziomie do uczenia maszynowego idealna dla dużych zbiorów danych. Jego główne funkcje to-działa na składni R i Python, skupione na dużych zbiorach danych i zaprojektowane specjalnie dla matematyki na wysokim poziomie. Jak to działa, jest dobrze wyjaśnione na stronie głównej, w tym demonstracja wideo dla jasnej ilustracji.

Sugerowane przeczytanie: 18 najlepszych IDE dla programowania C/C ++ lub edytorów kodów źródłowych w Linux

Istnieje kilka sposobów go użycia, w tym Apache Spark, Apache Hadoop, Jupyter i Apache Zeppelin. Niektóre z jego znaczących przypadków użycia obejmują motoryzację, ruch na lotniskach i bankowość społeczną.

Apache Systemml - platforma uczenia maszynowego

Odwiedź stronę główną: http: // systemml.Apache.org/

10. Nupic

Nupic jest ramą open source do uczenia maszynowego opartego na dziedziczkowej pamięci tymczasowej (HTM), teorii neokorty. Program HTM zintegrowany z NUPIC jest zaimplementowany do analizy danych strumieniowych w czasie rzeczywistym, w których uczy się wzorców czasowych istniejących w danych, przewiduje nieuchronne wartości, a także ujawnia wszelkie nieprawidłowości.

Jego godne uwagi funkcje obejmują:

  1. Ciągłe uczenie się online
  2. Wzory czasowe i przestrzenne
  3. Dane przesyłania strumieniowego w czasie rzeczywistym
  4. Prognozowanie i modelowanie
  5. Potężne wykrywanie anomalii
  6. Hierarchiczna pamięć czasowa
Nupic Machine Intelligence

Odwiedź stronę główną: http: // numenta.org/

Wraz z rosnącymi i rozwijającymi się badaniami w Ai, Jesteśmy świadkami, jak pojawia się więcej narzędzi, aby ten obszar technologii był sukcesem, szczególnie w rozwiązywaniu codziennych wyzwań naukowych wraz z celami edukacyjnymi.

Czy jesteś zainteresowany sztuczną inteligencją, co powiesz? Zaproponuj nam swoje przemyślenia, sugestie lub wszelkie produktywne informacje zwrotne na ten temat za pośrednictwem sekcji komentarzy poniżej i z przyjemnością dowiemy się więcej od Twojego.