Перевести "neural network produced" на корейский язык

Показаны 50 из 50 переводов фразы "neural network produced" с английский на корейский язык

Переводы neural network produced

"neural network produced" на английский можно перевести в следующие корейский язык слова/фразы:

network 가상 관리 구성 기능 기반 기술 네트워크 데이터 디바이스 디지털 또는 사용 사용자 서버 서비스 성능 소프트웨어 시스템 애플리케이션 액세스 연결 연결된 운영 응용 응용 프로그램 인터넷 인프라 장치 정보 제공 지원 통합 프로그램

Перевод английский на корейский язык из neural network produced

английский
корейский язык

EN Neural networks, also known as artificial neural networks (ANNs) or simulated neural networks (SNNs), are a subset of machine learning and are at the heart of deep learning algorithms

KO 인공 신경망(ANN) 또는 시뮬레이션 신경망(SNN)이라고도 하는 신경망은 머신 러닝의 서브세트이며, 딥 러닝 알고리즘의 핵심입니다

Транслитерация ingong singyeongmang(ANN) ttoneun simyulleisyeon singyeongmang(SNN)ilagodo haneun singyeongmang-eun meosin leoning-ui seobeuseteu-imyeo, dib leoning algolijeum-ui haegsim-ibnida

EN The perceptron is the oldest neural network, created by Frank Rosenblatt in 1958. It has a single neuron and is the simplest form of a neural network:

KO 퍼셉트론(perceptron)은 1958년에 Frank Rosenblatt이 만든 가장 오래된 신경망입니다. 이는 하나의 뉴런을 보유하며, 신경망의 가장 단순한 형태입니다.

Транслитерация peosebteulon(perceptron)eun 1958nyeon-e Frank Rosenblatti mandeun gajang olaedoen singyeongmang-ibnida. ineun hanaui nyuleon-eul boyuhamyeo, singyeongmang-ui gajang dansunhan hyeongtaeibnida.

EN A neural network that only has two or three layers is just a basic neural network.

KO 단지 2개 또는 3개의 계층만을 갖는 신경망은 그저 기본 신경망에 불과합니다.

Транслитерация danji 2gae ttoneun 3gaeui gyecheungman-eul gajneun singyeongmang-eun geujeo gibon singyeongmang-e bulgwahabnida.

EN Deep learning, also known as deep neural learning or deep neural network, is an artificial intelligence (AI) function that mimics how the human brain works to process data and create patterns that facilitate decision making.

KO 심층 신경 학습 또는 심층 신경망이라고도 하는 딥 러닝은 인간의 두뇌가 데이터를 처리하고 의사결정을 용이하게 하는 패턴 생성 방식을 모방하는 인공 지능(AI) 기능입니다.

Транслитерация simcheung singyeong hagseub ttoneun simcheung singyeongmang-ilagodo haneun dib leoning-eun ingan-ui dunoega deiteoleul cheolihago uisagyeoljeong-eul yong-ihage haneun paeteon saengseong bangsig-eul mobanghaneun ingong jineung(AI) gineung-ibnida.

EN To learn more about the differences between neural networks and other forms of artificial intelligence,  like machine learning, please read the blog post “AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What’s the Difference?”

KO 머신 러닝 등 인공지능의 다른 형태와 신경망 간의 차이점에 대해 자세히 알아보려면 블로그 포스트 "AI 대 머신 러닝 vs. 딥 러닝 대 신경망: 차이점"을 참조하세요.

Транслитерация meosin leoning deung ingongjineung-ui daleun hyeongtaewa singyeongmang gan-ui chaijeom-e daehae jasehi al-abolyeomyeon beullogeu poseuteu "AI dae meosin leoning vs. dib leoning dae singyeongmang: chaijeom"eul chamjohaseyo.

EN This process of passing data from one layer to the next layer defines this neural network as a feedforward network.

KO 한 계층에서 다음 계층으로 데이터를 전달하는 이러한 프로세스는 이 신경망을 피드포워드(feedforward) 네트워크로서 정의합니다.

Транслитерация han gyecheung-eseo da-eum gyecheung-eulo deiteoleul jeondalhaneun ileohan peuloseseuneun i singyeongmang-eul pideupowodeu(feedforward) neteuwokeuloseo jeong-uihabnida.

EN Multilayer perceptron (MLP) network Predict or classify outcomes using neural network models.

KO Multilayer perceptron(MLP) 네트워크 신경망 모델을 사용하여 결과를 예측하거나 분류합니다.

Транслитерация Multilayer perceptron(MLP) neteuwokeu singyeongmang model-eul sayonghayeo gyeolgwaleul yecheughageona bunlyuhabnida.

EN The term became popular when Geoffrey Hinton and Ruslan Salakhutdinov published a paper that explained how a neural network comprising multiple layers could be trained – one layer at a time

KO 이 용어는 Geoffrey Hinton과 Ruslan Salakhutdinov가 여러 계층으로 구성된 신경망을 한 번에 한 계층씩 훈련할 수 있는 방법에 대한 논문을 발표했을 때 인기를 얻었습니다

Транслитерация i yong-eoneun Geoffrey Hintongwa Ruslan Salakhutdinovga yeoleo gyecheung-eulo guseongdoen singyeongmang-eul han beon-e han gyecheungssig hunlyeonhal su issneun bangbeob-e daehan nonmun-eul balpyohaess-eul ttae ingileul eod-eossseubnida

EN During training, Pathmind will dynamically adjust neural network hyperparameters on the fly to discover the best possible outcome.

KO 트레이닝 중에 Pathmind는 최상의 결과를 찾기 위해 신경망의 hyperparameters를 동적 으로 조정합니다.

Транслитерация teuleining jung-e Pathmindneun choesang-ui gyeolgwaleul chajgi wihae singyeongmang-ui hyperparametersleul dongjeog eulo jojeonghabnida.

EN To see if it is a car or something else moveable you could use a neural network.

KO 차량인지 아니면 옮길 수 있는 다른 무언가인지 확인하려면 신경망을 이용할 수 있습니다.

Транслитерация chalyang-inji animyeon olmgil su issneun daleun mueongainji hwag-inhalyeomyeon singyeongmang-eul iyonghal su issseubnida.

EN Its field-tested algorithms are optimized specifically for machine vision, with a graphical user interface that simplifies neural network training without compromising performance

KO 현장에서 테스트를 거친 알고리즘은 특히 머신 비전에 최적화되어 있고, 성능 저하 없이 신경망 트레이닝을 간소화하는 사용자 그래픽 인터페이스를 지원합니다

Транслитерация hyeonjang-eseo teseuteuleul geochin algolijeum-eun teughi meosin bijeon-e choejeoghwadoeeo issgo, seongneung jeoha eobs-i singyeongmang teuleining-eul gansohwahaneun sayongja geulaepig inteopeiseuleul jiwonhabnida

EN The term became popular when Geoffrey Hinton and Ruslan Salakhutdinov published a paper that explained how a neural network comprising multiple layers could be trained – one layer at a time

KO 이 용어는 Geoffrey Hinton과 Ruslan Salakhutdinov가 여러 계층으로 구성된 신경망을 한 번에 한 계층씩 훈련할 수 있는 방법에 대한 논문을 발표했을 때 인기를 얻었습니다

Транслитерация i yong-eoneun Geoffrey Hintongwa Ruslan Salakhutdinovga yeoleo gyecheung-eulo guseongdoen singyeongmang-eul han beon-e han gyecheungssig hunlyeonhal su issneun bangbeob-e daehan nonmun-eul balpyohaess-eul ttae ingileul eod-eossseubnida

EN As a result, it’s worth noting that the “deep” in deep learning is just referring to the depth of layers in a neural network

KO 결과적으로, 딥 러닝의 "딥"은 단지 신경망에서 계층의 깊이를 의미함을 유념해야 합니다

Транслитерация gyeolgwajeog-eulo, dib leoning-ui "dib"eun danji singyeongmang-eseo gyecheung-ui gip-ileul uimiham-eul yunyeomhaeya habnida

EN A neural network that consists of more than three layers—which would be inclusive of the inputs and the output—can be considered a deep learning algorithm

KO 입력과 출력을 포함할 수 있는 세 개 이상의 계층으로 구성된 신경망은 딥 러닝 알고리즘으로 간주될 수 있습니다

Транслитерация iblyeoggwa chullyeog-eul pohamhal su issneun se gae isang-ui gyecheung-eulo guseongdoen singyeongmang-eun dib leoning algolijeum-eulo ganjudoel su issseubnida

EN added Neural-M - Pop Muzik to their wantlist.

KO Neural-M - Pop Muzik을(를) 그들의 희망 목록에 추가했습니다.

Транслитерация Neural-M - Pop Muzik-eul(leul) geudeul-ui huimang moglog-e chugahaessseubnida.

EN Deep learning creates artificial neural networks and layers based on how the human brain works

KO 딥 러닝은 인간의 뇌가 작동하는 방식을 기반으로 인공 신경망과 계층을 생성합니다

Транслитерация dib leoning-eun ingan-ui noega jagdonghaneun bangsig-eul giban-eulo ingong singyeongmang-gwa gyecheung-eul saengseonghabnida

EN Going back to its origins, deep learning first appeared in 1943 when Warren McCulloch and Walter Pitts used math and algorithms to create a computing system that replicated neural networks

KO 그 기원으로 거슬러 올라가보면, 딥 러닝은 1943년 Warren McCulloch와 Walter Pitts가 수학 및 알고리즘을 사용하여 신경망을 복제하는 컴퓨팅 시스템을 만들었을 때 처음 나타났습니다

Транслитерация geu giwon-eulo geoseulleo ollagabomyeon, dib leoning-eun 1943nyeon Warren McCulloch-wa Walter Pittsga suhag mich algolijeum-eul sayonghayeo singyeongmang-eul bogjehaneun keompyuting siseutem-eul mandeul-eoss-eul ttae cheoeum natanassseubnida

EN Deep learning bases its work on artificial neural networks that are created to imitate human thinking

KO 딥 러닝은 인간의 사고를 모방하기 위해 만들어진 인공 신경망을 기반으로 합니다

Транслитерация dib leoning-eun ingan-ui sagoleul mobanghagi wihae mandeul-eojin ingong singyeongmang-eul giban-eulo habnida

EN Until recently, these neural networks had limited computing power resulting in limited complexity.

KO 최근까지도 이러한 신경망은 컴퓨팅 성능이 제한되어 복잡도에서 제한을 받았습니다.

Транслитерация choegeunkkajido ileohan singyeongmang-eun keompyuting seongneung-i jehandoeeo bogjabdo-eseo jehan-eul bad-assseubnida.

EN With big data analytics advancing in leaps and bounds, neural networks have been getting more complex and sophisticated

KO 데이터 분석이 급속히 발전함에 따라 신경망은 더욱 복잡하고 정교해지고 있습니다

Транслитерация big deiteo bunseog-i geubsoghi baljeonham-e ttala singyeongmang-eun deoug bogjabhago jeong-gyohaejigo issseubnida

EN Models continue to be trained with large sets of labelled data and neural networks that have a multitude of layers

KO 모델은 레이블이 지정된 대규모 데이터 세트와 여러 계층이있는 신경망으로 계속 훈련됩니다

Транслитерация model-eun leibeul-i jijeongdoen daegyumo deiteo seteuwa yeoleo gyecheung-iissneun singyeongmang-eulo gyesog hunlyeondoebnida

EN The dropout approach has a proven track record with enhancing the performance of neural networks as far as supervised learning goes, particularly in the sectors of speech recognition and document classification as well as computational biology.

KO 드롭 아웃 접근 방식은 특히 음성 인식 및 문서 분류 뿐만 아니라 계산생물학 분야에서 지도 학습이 진행되는 한 신경망의 성능을 향상시키는 입증된 실적을 가지고 있습니다.

Транслитерация deulob aus jeobgeun bangsig-eun teughi eumseong insig mich munseo bunlyu ppunman anila gyesansaengmulhag bun-ya-eseo jido hagseub-i jinhaengdoeneun han singyeongmang-ui seongneung-eul hyangsangsikineun ibjeungdoen siljeog-eul gajigo issseubnida.

EN Later in the year we announced the acquisition of Matrix Mill, a team focused perfecting augmented reality occlusion by building deep neural networks that can infer 3D information about the surrounding world.

KO 향후 증강 현실 도구를 모든 사용자 및 개발자에게 제공하는 데 주력할 것입니다.

Транслитерация hyanghu jeung-gang hyeonsil doguleul modeun sayongja mich gaebalja-ege jegonghaneun de julyeoghal geos-ibnida.

EN Take low-res images and use the neural networks of ArtEngine to increase the native resolution of the image – without losing quality.

KO 저해상도 이미지에 ArtEngine의 신경망 기술사용하면 품질은 그대로 유지하며 이미지의 기본 해상도를 향상시킵니다.

Транслитерация jeohaesangdo imijie ArtEngine-ui singyeongmang gisul-eul sayonghamyeon pumjil-eun geudaelo yujihamyeo imijiui gibon haesangdoleul hyangsangsikibnida.

EN How Do Machines Learn? With neural networks to artificial intelligence.

KO 컴퓨터가 어떻게 학습할까요? 신경망을 통한 인공 지능으로의 발전.

Транслитерация keompyuteoga eotteohge hagseubhalkkayo? singyeongmang-eul tonghan ingong jineung-euloui baljeon.

EN Would you like to learn more about neural networks and deep learning?

KO 신경망 그리고 딥 러닝에 대한 자세한 내용을 알아보시겠습니까?

Транслитерация singyeongmang geuligo dib leoning-e daehan jasehan naeyong-eul al-abosigessseubnikka?

EN Our White Paper “Are Neural Networks the Future of Machine Vision?” reveals captivating insights into the world of machine learning. Do you have any further questions? Simply let us know – we're always glad to help!

KO 우리 백서인 “머신 비전의 미래는 신경망?” 은 머신 러닝 세계에 대한 매력적인 통찰을 보여줍니다. 좀 더 질문할 내용이 있으신가요? 도움이 필요하신가요? 언제든 연락주십시오.

Транслитерация uli baegseoin “meosin bijeon-ui milaeneun singyeongmang?” eun meosin leoning segyee daehan maelyeogjeog-in tongchal-eul boyeojubnida. jom deo jilmunhal naeyong-i iss-eusingayo? doum-i pil-yohasingayo? eonjedeun yeonlagjusibsio.

EN Deep learning neural networks are ideally suited to take advantage of multiple processors, distributing workloads seamlessly and efficiently across different processor types and quantities

KO 딥 러닝 신경망은 여러 프로세서를 동시에 활용하기에 이상적이며 다양한 프로세서 유형과 수량에 걸쳐 워크로드를 원활하고 효율적으로 분산시킵니다

Транслитерация dib leoning singyeongmang-eun yeoleo peuloseseoleul dongsie hwal-yonghagie isangjeog-imyeo dayanghan peuloseseo yuhyeong-gwa sulyang-e geolchyeo wokeulodeuleul wonhwalhago hyoyuljeog-eulo bunsansikibnida

EN By training algorithms with millions of labeled images, deep learning neural networks can successfully identify subjects as well or even better than humans, leading to advanced capabilities like rapid facial recognition.

KO 레이블이 있는 수백만 개의 이미지로 알고리즘을 학습하는 딥 러닝 신경망은 피사체를 사람만큼 또는 사람보다 더 잘 식별할 수 있으며 빠른 얼굴 인식 등의 고급 기능도 구현할 수 있습니다.

Транслитерация leibeul-i issneun subaegman gaeui imijilo algolijeum-eul hagseubhaneun dib leoning singyeongmang-eun pisacheleul salammankeum ttoneun salamboda deo jal sigbyeolhal su iss-eumyeo ppaleun eolgul insig deung-ui gogeub gineungdo guhyeonhal su issseubnida.

EN Amazon CodeGuru Reviewer is trained using rule mining and supervised machine learning models that use a combination of logistic regression and neural networks.

KO Amazon CodeGuru Reviewer는 로지스틱 회귀와 신경망 조합을 사용하는 규칙 마이닝 및 지도형 기계 학습 모델을 사용하여 학습됩니다.

Транслитерация Amazon CodeGuru Reviewerneun lojiseutig hoegwiwa singyeongmang johab-eul sayonghaneun gyuchig maining mich jidohyeong gigye hagseub model-eul sayonghayeo hagseubdoebnida.

английский корейский язык
amazon amazon

EN From the phones in our pockets to the reality of self-driving cars, the consumer economy has started to tap into the power of deep learning?s neural networks

KO 휴대 전화기에서부터 자율 주행 자동차에 이르기까지 소비자 경제 분야도 딥러닝 신경망의 힘을 활용하기 시작했습니다

Транслитерация hyudae jeonhwagieseobuteo jayul juhaeng jadongcha-e ileugikkaji sobija gyeongje bun-yado dibleoning singyeongmang-ui him-eul hwal-yonghagi sijaghaessseubnida

EN Download 3014 free Neural connections Icons in iOS, Windows, Material, and other design styles.

KO 4779 개의 Brain 무료 아이콘을 iOS, Windows, Material 및 기타 운영체제에 맞는 디자인 스타일로 다운로드 받으세요.

Транслитерация 4779 gaeui Brain mulyo aikon-eul iOS, Windows, Material mich gita un-yeongchejee majneun dijain seutaillo daunlodeu bad-euseyo.

английский корейский язык
ios ios
windows windows

EN Get free Neural connections icons in iOS, Material, Windows and other design styles for web, mobile, and graphic design projects

KO , 모바일, 그래픽 디자인 프로젝트를 위한 여러 디자인 스타일의 iOS, Material, Windows의 Brain 아이콘을 무료로 받아보세요

Транслитерация web, mobail, geulaepig dijain peulojegteuleul wihan yeoleo dijain seutail-ui iOS, Material, Windowsui Brain aikon-eul mulyolo bad-aboseyo

английский корейский язык
ios ios
windows windows

KO 신경망 및 딥 러닝 | Coursera

Транслитерация singyeongmang mich dib leoning | Coursera

EN Deep learning creates artificial neural networks and layers based on how the human brain works

KO 딥 러닝은 인간의 뇌가 작동하는 방식을 기반으로 인공 신경망과 계층을 생성합니다

Транслитерация dib leoning-eun ingan-ui noega jagdonghaneun bangsig-eul giban-eulo ingong singyeongmang-gwa gyecheung-eul saengseonghabnida

EN Going back to its origins, deep learning first appeared in 1943 when Warren McCulloch and Walter Pitts used math and algorithms to create a computing system that replicated neural networks

KO 그 기원으로 거슬러 올라가보면, 딥 러닝은 1943년 Warren McCulloch와 Walter Pitts가 수학 및 알고리즘을 사용하여 신경망을 복제하는 컴퓨팅 시스템을 만들었을 때 처음 나타났습니다

Транслитерация geu giwon-eulo geoseulleo ollagabomyeon, dib leoning-eun 1943nyeon Warren McCulloch-wa Walter Pittsga suhag mich algolijeum-eul sayonghayeo singyeongmang-eul bogjehaneun keompyuting siseutem-eul mandeul-eoss-eul ttae cheoeum natanassseubnida

EN Deep learning bases its work on artificial neural networks that are created to imitate human thinking

KO 딥 러닝은 인간의 사고를 모방하기 위해 만들어진 인공 신경망을 기반으로 합니다

Транслитерация dib leoning-eun ingan-ui sagoleul mobanghagi wihae mandeul-eojin ingong singyeongmang-eul giban-eulo habnida

EN Until recently, these neural networks had limited computing power resulting in limited complexity.

KO 최근까지도 이러한 신경망은 컴퓨팅 성능이 제한되어 복잡도에서 제한을 받았습니다.

Транслитерация choegeunkkajido ileohan singyeongmang-eun keompyuting seongneung-i jehandoeeo bogjabdo-eseo jehan-eul bad-assseubnida.

EN With big data analytics advancing in leaps and bounds, neural networks have been getting more complex and sophisticated

KO 데이터 분석이 급속히 발전함에 따라 신경망은 더욱 복잡하고 정교해지고 있습니다

Транслитерация big deiteo bunseog-i geubsoghi baljeonham-e ttala singyeongmang-eun deoug bogjabhago jeong-gyohaejigo issseubnida

EN Models continue to be trained with large sets of labelled data and neural networks that have a multitude of layers

KO 모델은 레이블이 지정된 대규모 데이터 세트와 여러 계층이있는 신경망으로 계속 훈련됩니다

Транслитерация model-eun leibeul-i jijeongdoen daegyumo deiteo seteuwa yeoleo gyecheung-iissneun singyeongmang-eulo gyesog hunlyeondoebnida

EN The dropout approach has a proven track record with enhancing the performance of neural networks as far as supervised learning goes, particularly in the sectors of speech recognition and document classification as well as computational biology.

KO 드롭 아웃 접근 방식은 특히 음성 인식 및 문서 분류 뿐만 아니라 계산생물학 분야에서 지도 학습이 진행되는 한 신경망의 성능을 향상시키는 입증된 실적을 가지고 있습니다.

Транслитерация deulob aus jeobgeun bangsig-eun teughi eumseong insig mich munseo bunlyu ppunman anila gyesansaengmulhag bun-ya-eseo jido hagseub-i jinhaengdoeneun han singyeongmang-ui seongneung-eul hyangsangsikineun ibjeungdoen siljeog-eul gajigo issseubnida.

EN Neural networks are designed to work in a manner that is similar to the functioning of the brain

KO 신경망은 뇌의 기능과 유사한 방식으로 작동하도록 설계되었습니다

Транслитерация singyeongmang-eun noeui gineung-gwa yusahan bangsig-eulo jagdonghadolog seolgyedoeeossseubnida

EN Just like stimuli causes the firing of neurons in the brain that enable action, neural networks use inputs with a threshold requirement

KO 자극이 뇌에서 행동을 가능하게 하는 신경 세포의 발화를 일으키는 것처럼 신경망은 임계값 요구 사항이 있는 입력을 사용합니다

Транслитерация jageug-i noeeseo haengdong-eul ganeunghage haneun singyeong sepoui balhwaleul il-eukineun geoscheoleom singyeongmang-eun imgyegabs yogu sahang-i issneun iblyeog-eul sayonghabnida

EN Neural networks reflect the behavior of the human brain, allowing computer programs to recognize patterns and solve common problems in the fields of AI, machine learning, and deep learning.

KO 신경망은 인간 두뇌의 작동 방식을 반영함으로써 컴퓨터 프로그램이 패턴을 인식하고 AI, 머신 러닝 및 딥 러닝 분야의 일반적인 문제점을 해결할 수 있도록 지원합니다.

Транслитерация singyeongmang-eun ingan dunoeui jagdong bangsig-eul ban-yeongham-eulosseo keompyuteo peulogeulaem-i paeteon-eul insighago AI, meosin leoning mich dib leoning bun-yaui ilbanjeog-in munjejeom-eul haegyeolhal su issdolog jiwonhabnida.

EN Artificial neural networks (ANNs) are comprised of a node layers, containing an input layer, one or more hidden layers, and an output layer

KO 인공 신경망(ANN)은 하나의 입력 계층, 하나 이상의 은닉 계층 및 하나의 출력 계층을 포함하는 노드 계층들로 구성되어 있습니다

Транслитерация ingong singyeongmang(ANN)eun hanaui iblyeog gyecheung, hana isang-ui eunnig gyecheung mich hanaui chullyeog gyecheung-eul pohamhaneun nodeu gyecheungdeullo guseongdoeeo issseubnida

EN Neural networks rely on training data to learn and improve their accuracy over time

KO 신경망은 훈련 데이터에 의존하여 학습을 수행하고, 시간이 지나면서 자체 정확도를 개선합니다

Транслитерация singyeongmang-eun hunlyeon deiteoe uijonhayeo hagseub-eul suhaenghago, sigan-i jinamyeonseo jache jeonghwagdoleul gaeseonhabnida

EN One of the most well-known neural networks is Google’s search algorithm.

KO 가장 널리 알려진 신경망 중 하나로 Google의 검색 알고리즘을 들 수 있습니다.

Транслитерация gajang neolli allyeojin singyeongmang jung hanalo Google-ui geomsaeg algolijeum-eul deul su issseubnida.

EN As we start to think about more practical use cases for neural networks, like image recognition or classification, we’ll leverage supervised learning, or labeled datasets, to train the algorithm

KO 이미지 인식이나 분류와 같은 신경망의 보다 실용적인 유스케이스에 대해 생각하기 시작하면서, 우리는 알고리즘의 훈련을 위해 감독형 러닝이나 레이블형 데이터 세트를 활용합니다

Транслитерация imiji insig-ina bunlyuwa gat-eun singyeongmang-ui boda sil-yongjeog-in yuseukeiseue daehae saeng-gaghagi sijaghamyeonseo, ulineun algolijeum-ui hunlyeon-eul wihae gamdoghyeong leoning-ina leibeulhyeong deiteo seteuleul hwal-yonghabnida

EN Neural networks can be classified into different types, which are used for different purposes

KO 신경망은 각각 서로 다른 용도에 사용되는 다양한 유형으로 분류될 수 있습니다

Транслитерация singyeongmang-eun gaggag seolo daleun yongdo-e sayongdoeneun dayanghan yuhyeong-eulo bunlyudoel su issseubnida

EN While this isn’t a comprehensive list of types, the below would be representative of the most common types of neural networks that you’ll come across for its common use cases:

KO 비록 포괄적인 유형 목록이 아니지만, 아래는 일반적인 유스케이스에서 접할 수 있는 가장 일반적인 유형의 신경망을 대표적으로 예시합니다.

Транслитерация bilog pogwaljeog-in yuhyeong moglog-i anijiman, alaeneun ilbanjeog-in yuseukeiseueseo jeobhal su issneun gajang ilbanjeog-in yuhyeong-ui singyeongmang-eul daepyojeog-eulo yesihabnida.

Показаны переводы 50 из 50