Ml Un Ai

Top 20 AI un mašīnmācīšanās algoritmi, metodes un paņēmieni

Top 20 Ai Machine Learning Algorithms

Mājas ML un AI Top 20 AI un mašīnmācīšanās algoritmi, metodes un paņēmieni AutorsMehedi Hasan InPiedāvātieML un AI 1361 1

SATURS

  1. Labākie AI un mašīnmācīšanās algoritmi
    1. 1. Naivs Bejs
    2. 2. Atbalsta Vector Machine
    3. 3. Lineārā regresija
    4. 4. Loģistiskā regresija
    5. 5. K-tuvākais kaimiņš (KNN)
    6. 6. K-nozīmē
    7. 7. Lēmumu koks
    8. 8. Nejaušs mežs
    9. 9. GROZS
    10. 10. Apriori mašīnmācīšanās algoritms
    11. 11. Galveno komponentu analīze (PCA)
    12. 12. CatBoost
    13. 13. Iteratīvais dichotomiser 3 (ID3)
    14. 14. Hierarhiskā klasterizācija
    15. 15. Atpakaļ pavairošana
    16. 16. AdaBoost
    17. 17. Dziļā mācīšanās
    18. 18. Gradienta palielināšanas algoritms
    19. 19. Hopfīlda tīkls
    20. 20. C4.5
    21. Beigu domas

Kad es sāku strādāt ar mašīnmācīšanās problēmām, tad es jūtos panikā, kurš algoritms man jāizmanto? Vai arī kuru no tiem ir viegli pielietot? Ja jūs esat tāds pats kā es, tad šis raksts varētu jums palīdzēt uzzināt par mākslīgo intelektu un mašīnmācīšanās algoritmiem, metodēm vai paņēmieniem, lai atrisinātu negaidītas vai pat paredzamas problēmas.





Mašīnmācība ir tik spēcīga AI tehnika, kas var efektīvi veikt uzdevumu, neizmantojot skaidrus norādījumus. ML modelis var mācīties no saviem datiem un pieredzes. Mašīnmācīšanās lietojumprogrammas ir automātiskas, stabilas un dinamiskas. Ir izstrādāti vairāki algoritmi, lai risinātu šo reālās dzīves problēmu dinamiku. Kopumā ir trīs veidu mašīnmācīšanās algoritmi, piemēram, uzraudzīta mācīšanās, bez uzraudzības mācīšanās un pastiprināta mācīšanās.

Labākie AI un mašīnmācīšanās algoritmi


Atbilstošas ​​mašīnmācīšanās tehnikas vai metodes izvēle ir viens no galvenajiem uzdevumiem, lai izstrādātu mākslīgā intelekta vai mašīnmācīšanās projekts . Tā kā ir pieejami vairāki algoritmi, un visiem tiem ir savas priekšrocības un lietderība. Zemāk mēs aprakstām 20 mašīnmācīšanās algoritmus gan iesācējiem, gan profesionāļiem. Tātad, ieskatīsimies.





1. Naivs Bejs


Naivs Bayes klasifikators ir varbūtības klasifikators, kura pamatā ir Bayes teorēma , pieņemot neatkarību starp pazīmēm. Šīs funkcijas dažādās lietojumprogrammās atšķiras. Tā ir viena no ērtajām mašīnmācīšanās metodēm iesācējiem.

Naivs Bejs ir nosacītas varbūtības modelis. Dots klasificējams problēmas gadījums, ko attēlo vektors x = ( x i . . . x n ) kas attēlo dažas n pazīmes (neatkarīgus mainīgos), tas pašreizējam gadījumam piešķir varbūtības katram no K potenciālajiem rezultātiem:



naivi līči 1Iepriekš minētā formulējuma problēma ir tāda, ka, ja pazīmju skaits n ir ievērojams vai ja elements var iegūt lielu skaitu vērtību, tad šāda modeļa pamatā ir varbūtību tabulas. Tāpēc mēs pārveidojam modeli, lai tas būtu vieglāk lietojams. Izmantojot Bayes teorēmu, nosacīto varbūtību var uzrakstīt šādi:

naivi līči 2

Izmantojot Bajesa varbūtības terminoloģiju, iepriekš minēto vienādojumu var uzrakstīt šādi:

naivi līči 3

Šis mākslīgā intelekta algoritms tiek izmantots teksta klasifikācijā, t.i., noskaņojuma analīzē, dokumentu kategorizēšanā, surogātpasta filtrēšanā un ziņu klasifikācijā. Šī mašīnmācīšanās tehnika darbojas labi, ja ievades dati tiek iedalīti iepriekš noteiktās grupās. Turklāt tas prasa mazāk datu nekā loģistiskā regresija. Tas pārspēj rezultātus dažādās jomās.

2. Atbalsta Vector Machine


Atbalsta vektora mašīna (SVM) ir viens no visplašāk izmantotajiem uzraudzītajiem mašīnmācīšanās algoritmiem teksta klasifikācijas jomā. Šo metodi izmanto arī regresijai. To var saukt arī par atbalsta vektoru tīkliem. Cortes & Vapnik izstrādāja šo metodi binārajai klasifikācijai. Uzraudzītais mācību modelis ir mašīnmācīšanās pieeja, kas secina iznākumu no marķētajiem apmācības datiem.

svm

Atbalsta vektora mašīna konstruē hiperplānu vai hiperplānu kopumu ļoti augstā vai bezgalīgā dimensijas apgabalā. Tas aprēķina lineāro atdalīšanas virsmu ar maksimālo rezervi konkrētam mācību komplektam.

Tikai ievades vektoru apakškopa ietekmēs rezerves izvēli (apzīmēta attēlā); šādus vektorus sauc par atbalsta vektoriem. Ja nepastāv lineāra atdalīšanas virsma, piemēram, trokšņainu datu klātbūtnē, ir piemēroti SVM algoritmi ar vaļīgu mainīgo. Šis klasifikators mēģina sadalīt datu telpu, izmantojot lineāras vai nelineāras norobežojumus starp dažādām klasēm.

izceļas, kuru standartnovirzi izmantot

SVM ir plaši izmantots modeļu klasifikācijas problēmās un nelineārā regresijā. Turklāt tā ir viena no labākajām automātiskās teksta kategorizēšanas metodēm. Labākais šajā algoritmā ir tas, ka tas neizdara stingrus pieņēmumus par datiem.

Lai ieviestu atbalsta vektora mašīnu: datu zinātnes bibliotēkas Python– SciKit Learn, PyML, SVMStruktūraPython, LIBSVM un datu zinātnes bibliotēkas R– Klar, e1071.

3. Lineārā regresija


lineārā regresija

Lineārā regresija ir tieša pieeja, ko izmanto, lai modelētu attiecības starp atkarīgo mainīgo un vienu vai vairākiem neatkarīgiem mainīgajiem. Ja ir viens neatkarīgs mainīgais, tad to sauc par vienkāršu lineāru regresiju. Ja ir pieejams vairāk nekā viens neatkarīgs mainīgais, tad to sauc par vairākkārtēju lineāru regresiju.

Šo formulu izmanto, lai, pamatojoties uz nepārtrauktiem mainīgajiem, novērtētu reālās vērtības, piemēram, mājas cenu, zvanu skaitu un kopējo pārdošanas apjomu. Šeit attiecības starp neatkarīgajiem un atkarīgajiem mainīgajiem tiek noteiktas, ievietojot labāko līniju. Šī vispiemērotākā līnija ir pazīstama kā regresijas līnija, un to attēlo lineārs vienādojums

Y = a * X + b.

šeit,

  • Y - atkarīgs mainīgais
  • a - slīpums
  • X - neatkarīgs mainīgais
  • b - pārtvert

Šī mašīnmācīšanās metode ir viegli lietojama. Tas izpildās ātri. To var izmantot uzņēmējdarbībā pārdošanas prognozēšanai. To var izmantot arī riska novērtēšanā.

4. Loģistiskā regresija


loģistiskā regresija

Šeit ir vēl viens mašīnmācīšanās algoritms - loģistiskā regresija vai loģistiskā regresija, ko izmanto, lai novērtētu diskrētās vērtības (binārās vērtības, piemēram, 0/1, jā/nē, patiesa/nepatiesa), pamatojoties uz noteiktu neatkarīgā mainīgā kopu. Šī algoritma uzdevums ir paredzēt incidenta varbūtību, piestiprinot datus logit funkcijai. Tās izejas vērtības ir no 0 līdz 1.

Formulu var izmantot dažādās jomās, piemēram, mašīnmācībā, zinātniskajā disciplīnā un medicīnas jomās. To var izmantot, lai prognozētu noteiktas slimības rašanās risku, pamatojoties uz novērotajām pacienta īpašībām. Loģistikas regresiju var izmantot, lai prognozētu klienta vēlmi iegādāties produktu. Šo mašīnmācīšanās paņēmienu izmanto laika prognozēšanā, lai prognozētu lietus iespējamību.

Loģistikas regresiju var iedalīt trīs veidos -

  • Binārā loģistiskā regresija
  • Daudznominālā loģistikas regresija
  • Parastā loģistiskā regresija

Loģistikas regresija ir mazāk sarežģīta. Turklāt tas ir izturīgs. Tas var apstrādāt nelineārus efektus. Tomēr, ja apmācības dati ir reti un lieli, šis ML algoritms var pārspīlēt. Tas nevar paredzēt nepārtrauktus rezultātus.

5. K-tuvākais kaimiņš (KNN)


K-tuvākais kaimiņš (kNN) ir plaši pazīstama statistiskā pieeja klasifikācijai, un tā gadu gaitā ir plaši pētīta, un tā ir agri piemērota kategorizēšanas uzdevumiem. Tas darbojas kā neparametriska klasifikācijas un regresijas problēmu metodika.

Šī AI un ML metode ir diezgan vienkārša. Tas nosaka testa dokumenta t kategoriju, pamatojoties uz balsošanu par k dokumentu kopumu, kas ir vistuvāk t attālumam, parasti Eiklīda attālumam. Būtiskais lēmuma noteikums, kas dots testēšanas dokumentā t kNN klasifikatoram, ir šāds:

knn

Ja y (xi, c) ir bināra klasifikācijas funkcija mācību dokumentam xi (kas atgriež vērtību 1, ja xi ir apzīmēta ar c, vai 0 citādi), šis noteikums apzīmēts ar t ar kategoriju, kurai k ir piešķirta visvairāk balsu -tuvākā apkārtne.

KNN mūs var saistīt ar mūsu reālo dzīvi. Piemēram, ja vēlaties uzzināt dažus cilvēkus, par kuriem neesat saņēmis nekādu informāciju, jūs, iespējams, labprātāk izlemtu par viņa tuviem draugiem un līdz ar to arī par lokiem, kuros viņš pārvietojas, un piekļūtu viņa/viņas informācijai. Šis algoritms ir skaitļošanas ziņā dārgs.

6. K-nozīmē


k nozīmē

k-nozīmē klasterizācija ir metode bez uzraudzības mācīties kas ir pieejams klasteru analīzei datu ieguvē. Šī algoritma mērķis ir sadalīt n novērojumus k grupās, kur katrs novērojums pieder pie tuvākā kopas vidējā lieluma. Šo algoritmu izmanto tirgus segmentēšanā, datora redzējumā un astronomijā daudzās citās jomās.

7. Lēmumu koks


lēmumu koks

Lēmumu koks ir lēmumu atbalsta rīks, kas izmanto grafisku attēlojumu, t.i., kokam līdzīgu grafiku vai lēmumu modeli. To parasti izmanto lēmumu analīzē un arī populāru mašīnmācīšanās rīku. Lēmumu koki tiek izmantoti operāciju izpētē un operāciju vadībā.

Tam ir blokshēmai līdzīga struktūra, kurā katrs iekšējais mezgls ir atribūta “tests”, katrs atzars attēlo testa rezultātu, un katrs lapu mezgls apzīmē klases etiķeti. Ceļš no saknes līdz lapai ir pazīstams kā klasifikācijas noteikumi. Tas sastāv no trīs veidu mezgliem:

izveidot Excel programmā nolaižamo sarakstu
  • Lēmuma mezgli: parasti attēlo ar kvadrātiem,
  • Iespēju mezgli: parasti apļi,
  • Gala mezgli: parasti attēlo trīsstūri.

Lēmumu koks ir vienkārši saprotams un interpretējams. Tas izmanto baltās kastes modeli. Turklāt to var kombinēt ar citām lēmumu pieņemšanas metodēm.

8. Nejaušs mežs


Nejaušs mežs

Nejaušs mežs ir populāra ansambļa mācīšanās metode, kas darbojas, apmācības laikā konstruējot daudz lēmumu koku un izvadot kategoriju, kas ir katra koka kategoriju veids (klasifikācija) vai vidējā prognozēšana (regresija).

Šī mašīnmācīšanās algoritma darbības laiks ir ātrs, un tas var strādāt ar nelīdzsvarotiem un trūkstošiem datiem. Tomēr, kad mēs to izmantojām regresijai, tas nevar paredzēt ārpus apmācības datu diapazona, un tas var pārsniegt datus.

9. GROZS


ratiņi

Klasifikācijas un regresijas koks (CART) ir viena veida lēmumu koks. Lēmumu koks darbojas kā rekursīva sadalīšanas pieeja, un CART sadala katru ievades mezglu divos mezgla mezglos. Katrā lēmumu koku līmenī algoritms identificē nosacījumu - kurš mainīgais un līmenis jāizmanto, lai sadalītu ievades mezglu divos pakārtotos mezglos.

CART algoritma darbības ir norādītas zemāk:

  • Iegūstiet ievades datus
  • Labākā Splita
  • Labākais mainīgais
  • Sadaliet ievades datus kreisajā un labajā mezglā
  • Turpiniet 2-4. Darbību
  • Lēmumu koku atzarošana

10. Apriori mašīnmācīšanās algoritms


priekšroka

Apriori algoritms ir kategorizēšanas algoritms. Šo mašīnmācīšanās paņēmienu izmanto lielu datu apjomu šķirošanai. To var izmantot arī, lai sekotu līdzi attiecību attīstībai un veidotu kategorijas. Šis algoritms ir neuzraudzīta mācīšanās metode, kas ģenerē asociācijas noteikumus no noteiktas datu kopas.

Apriori mašīnmācīšanās algoritms darbojas šādi:

  • Ja vienumu kopa notiek bieži, tad visas vienību kopas apakškopas notiek arī bieži.
  • Ja vienumu kopa notiek reti, tad arī visu vienumu kopas virsgrupas notiek reti.

Šo ML algoritmu izmanto dažādās lietojumprogrammās, piemēram, lai noteiktu zāļu blakusparādības, tirgus grozu analīzei un automātiskai pabeigšanai. Tas ir vienkārši īstenojams.

11. Galveno komponentu analīze (PCA)


pca

Galveno komponentu analīze (PCA) ir algoritms bez uzraudzības . Jaunās funkcijas ir ortogonālas, tas nozīmē, ka tās nav savstarpēji saistītas. Pirms PCA veikšanas vienmēr normalizējiet savu datu kopu, jo transformācija ir atkarīga no mēroga. Ja to nedarīsit, jaunās galvenās sastāvdaļas dominēs visbūtiskākajā mērogā.

PCA ir daudzpusīga tehnika. Šis algoritms ir bez piepūles un vienkārši īstenojams. To var izmantot attēlu apstrādē.

12. CatBoost


CatBoost

CatBoost ir atvērtā avota mašīnmācīšanās algoritms, kas nāk no Yandex. Nosaukums “CatBoost” cēlies no diviem vārdiem “Category” un “Boosting”. To var apvienot ar dziļas mācīšanās ietvariem, t.i., Google TensorFlow un Apple Core ML. CatBoost var strādāt ar daudziem datu veidiem, lai atrisinātu vairākas problēmas.

13. Iteratīvais dichotomiser 3 (ID3)


ID3

Iteratīvais dichotomiser 3 (ID3) ir lēmumu koku mācīšanās algoritmisks noteikums, ko iesniedza Ross Quinlan, un kuru izmanto, lai no datu kopas sniegtu lēmumu koku. Tas ir algoritmiskās programmas C4.5 priekštecis un tiek izmantots mašīnmācīšanās un lingvistiskās komunikācijas procesa jomās.

ID3 var pārspīlēt apmācības datus. Šo algoritmisko noteikumu ir grūtāk izmantot nepārtrauktiem datiem. Tas negarantē optimālu risinājumu.

14. Hierarhiskā klasterizācija


klasterizācija

Hierarhiskā klasterizācija ir klasteru analīzes veids. Hierarhiskā klasterizācijā datu ilustrēšanai tiek izstrādāts klasteru koks (dendrogramma). Hierarhiskā klasterizācijā katra grupa (mezgls) ir saistīta ar divām vai vairākām pēcteču grupām. Katrs klasteru koka mezgls satur līdzīgus datus. Mezglu grupa diagrammā blakus citiem līdzīgiem mezgliem.

Algoritms

Šo mašīnmācīšanās metodi var iedalīt divos modeļos - no apakšas uz augšu vai no augšas uz leju :

No augšas uz augšu (hierarhiskā aglomerācijas klasterizācija, HAC)

  • Šīs mašīnmācīšanās tehnikas sākumā katru dokumentu uztveriet kā vienu kopu.
  • Jaunā klasterī vienlaikus tika apvienoti divi vienumi. Kombainu apvienošanās ietver aprēķinu atšķirību starp katru iekļauto pāri un līdz ar to arī alternatīvajiem paraugiem. Ir daudz iespēju, kā to izdarīt. Daži no tiem ir:

a. Pilnīga savienošana : Vistālākā pāra līdzība. Viens ierobežojums ir tāds, ka novirzes var izraisīt tuvu grupu apvienošanos vēlāk, nekā tas ir optimāli.

b. Viena saite : Tuvākā pāra līdzība. Tas var izraisīt priekšlaicīgu apvienošanos, lai gan šīs grupas ir diezgan atšķirīgas.

kā pievienot galveni Excel

c. Grupas vidējais rādītājs : līdzība starp grupām.

d. Centro līdzība: katra atkārtošana apvieno kopas ar galveno līdzīgo centrālo punktu.

  • Kamēr visi vienumi nav apvienoti vienā klasterī, savienošanas pārī process turpinās.

No augšas uz leju (šķelšanās)

  • Dati sākas ar kombinētu kopu.
  • Klasteris pēc zināmas līdzības sadalās divās atšķirīgās daļās.
  • Klasteri atkal un atkal tiek sadalīti divās daļās, līdz kopas satur tikai vienu datu punktu.

15. Atpakaļ pavairošana


blokdiagrammas atpakaļ izplatīšanās

Atpakaļpavairošana ir a uzraudzīts mācību algoritms . Šis ML algoritms nāk no ANN (mākslīgo neironu tīklu) apgabala. Šis tīkls ir daudzslāņu pārsūtīšanas tīkls. Šīs metodes mērķis ir izveidot noteiktu funkciju, mainot ieejas signālu iekšējos svarus, lai iegūtu vēlamo izejas signālu. To var izmantot klasifikācijai un regresijai.

pavairošana atpakaļ

Atpakaļizplatīšanas algoritmam ir dažas priekšrocības, t.i., to ir viegli īstenot. Algoritmā izmantoto matemātisko formulu var piemērot jebkuram tīklam. Skaitīšanas laiku var samazināt, ja svars ir mazs.

Atpakaļizplatīšanas algoritmam ir daži trūkumi, piemēram, tas var būt jutīgs pret trokšņainiem datiem un novirzēm. Tā ir pilnībā uz matricu balstīta pieeja. Šī algoritma faktiskā veiktspēja ir pilnībā atkarīga no ievades datiem. Rezultāts var nebūt skaitlisks.

16. AdaBoost


adaboost - mašīnmācīšanās algoritms

AdaBoost nozīmē Adaptive Boosting, mašīnmācīšanās metodi, ko attēlo Yoav Freund un Robert Schapire. Tas ir meta-algoritms, un to var integrēt ar citiem mācību algoritmiem, lai uzlabotu to veiktspēju. Šis algoritms ir ātri un viegli lietojams. Tas labi darbojas ar lielām datu kopām.

17. Dziļā mācīšanās


dziļa mācīšanās

Dziļā mācīšanās ir metožu kopums, ko iedvesmojis cilvēka smadzeņu mehānisms. Teksta klasifikācijā tiek izmantoti divi galvenie dziļi mācīšanās veidi, t.i., Convolution Neural Networks (CNN) un Recurrent Neural Networks (RNN). Dziļās mācīšanās algoritmi, piemēram, Word2Vec vai GloVe, tiek izmantoti arī, lai iegūtu augsta ranga vārdu vektorgrafiku un uzlabotu klasifikatoru precizitāti, kas tiek apmācīta, izmantojot tradicionālos mašīnmācīšanās algoritmus.

Šai mašīnmācīšanās metodei ir vajadzīgs daudz apmācības paraugu, nevis tradicionālie mašīnmācīšanās algoritmi, t.i., vismaz miljoniem marķētu piemēru. No otras puses, tradicionālās mašīnmācīšanās metodes sasniedz precīzu slieksni visur, kur papildu apmācības parauga pievienošana kopumā neuzlabo to precizitāti. Dziļās mācīšanās klasifikatori pārspēj labāku rezultātu ar vairāk datu.

18. Gradienta palielināšanas algoritms


gradienta palielināšanas algoritms

Gradienta palielināšana ir mašīnmācīšanās metode, ko izmanto klasifikācijai un regresijai. Tas ir viens no spēcīgākajiem veidiem, kā izstrādāt paredzamo modeli. Gradienta palielināšanas algoritmam ir trīs elementi:

  • Zaudējumu funkcija
  • Vājš mācītājs
  • Piedevu modelis

19. Hopfīlda tīkls


hopfield tīkls - mašīnmācīšanās algoritms

Hopfield tīkls ir viens no atkārtotiem veidiem mākslīgais neironu tīkls šī tīkla mērķis ir saglabāt vienu vai vairākus modeļus un atsaukt visus modeļus, pamatojoties uz daļēju ievadi. Hopfield tīklā visi mezgli ir gan ieejas, gan izejas un pilnībā savstarpēji saistīti.

20. C4.5


C4.5

C4.5 ir lēmumu koks, ko izgudroja Ross Kvinlans. Tā ir ID3 jaunināšanas versija. Šī algoritmiskā programma ietver dažus pamata gadījumus:

  • Visi sarakstā iekļautie paraugi pieder pie līdzīgas kategorijas. Tas izveido lapu mezglu lēmumu kokam, kurā teikts, ka jāizlemj par šo kategoriju.
  • Tas izveido lēmuma mezglu augstāk kokā, izmantojot paredzamo klases vērtību.
  • Tas izveido lēmuma mezglu augstāk kokā, izmantojot paredzamo vērtību.

Beigu domas


Lai izveidotu efektīvu, ir ļoti svarīgi izmantot pareizu algoritmu, kas balstīts uz jūsu datiem un domēnu mašīnmācīšanās projekts . Tāpat ir svarīgi izprast katra mašīnmācīšanās algoritma kritisko atšķirību, lai risinātu jautājumu “kad es izvēlos kādu.” Kā mašīnmācīšanās pieejā mašīna vai ierīce ir iemācījusies, izmantojot mācību algoritmu. Es esmu pārliecināts, ka šis raksts palīdz jums saprast algoritmu. Ja jums ir kādi ieteikumi vai jautājumi, lūdzu, jautājiet. Turpiniet lasīt.

  • Tagi
  • Datu ieguve
  • Dziļa mācīšanās
Kopīgot Facebook Twitter Pinterest WhatsApp ReddIt Telegramma Viber

    1 KOMENTĀRS

    1. Emīlija džeza 2019. gada 12. novembris plkst. 14:15

      Tas ir veidots, izmantojot matemātisku modeli, un tam ir dati, kas attiecas gan uz ieeju, gan uz izvadi. Piemēram, ja mērķis ir noskaidrot, vai noteiktā attēlā bija vilciens, tad dažādi attēli ar vilcienu un bez tā tiks marķēti un ievadīti kā apmācības dati.

      Tātad būtībā jums ir ieejas “A” un izejas “Z”. Uzraudzīta mācīšanās izmanto funkciju, lai kartētu ievadi, lai iegūtu vēlamo rezultātu.

      Z = f (A)

      Atbildēt

    ATSTĀJ ATBILDI Atcelt atbildi

    Komentārs: Lūdzu, ievadiet savu komentāru! Vārds:* Lūdzu, ievadiet savu vārdu šeit E -pasts:* Jūs esat ievadījis nepareizu e -pasta adresi! Lūdzu, šeit ievadiet savu e -pasta adresi Vietne:

    Saglabājiet manu vārdu, e -pastu un vietni šajā pārlūkprogrammā, lai nākamreiz komentētu.

    spot_img

    Jaunākā ziņa

    Android

    10 labākās sejas maiņas lietotnes Android un iOS ierīcēm

    Windows OS

    Kā ieplānot Windows 10, lai automātiski iztukšotu atkritni

    Android

    10 labākās rēķinu izrakstīšanas lietotnes Android ierīcei, lai ātri samaksātu

    Windows OS

    10 labākās GPU etalona programmatūras jūsu datoram

    Vajag izlasīt

    A-Z komandas

    40 labāko Linux komandu apkrāptu lapa Linux administratoram

    A-Z komandas

    50 pārsteidzošas Linux Crontab komandas SysAdmins

    Linux

    Labākās lietas, kas jādara pēc Linux Mint 20 Ulyana instalēšanas

    ML un AI

    Top 10 dabiskās valodas apstrādes (NLP) tendences nākotnē

    Saistītā ziņa

    Linux Mint vs Ubuntu: 15 fakti, kas jāzina, pirms izvēlēties labāko

    Debian vs Ubuntu: 15 lietas, kas jāzina, pirms izvēlēties labāko

    30 labākie Linux termināļa emulatori un Bash redaktori

    Labākā kriptovalūta, kurā ieguldīt: 20 top kriptovalūtu saraksts

    Top 10 padziļinātas mācīšanās projektu idejas iesācējiem un profesionāļiem

    10 jaunās dziļās mācīšanās tendences, kas vērojamas tuvākajā nākotnē



    ^