Dataset Viewer
Auto-converted to Parquet
En
stringlengths
1
23.4k
Ar
stringlengths
1
17.3k
EN_word_count
int64
1
4.01k
AR_word_count
int64
0
3.19k
okay uh the subject i want to  talk about in this video is
طيب أه الموضوع الذي أريد التحدث عنه في هذا الفيديو هو
13
11
the uh in the follow up of the subjects we  talked about classification and we talked about  
أه في المتابعة من الموضوعات التي تحدثنا عنها عن التصنيف وتحدثنا عن
17
12
neural networks uh in the previous session  we talked about perceptron perceptron  
الشبكات العصبية أه في الجلسة السابقة تحدثنا عن perceptron perceptron
12
10
is a is a neural network that has only  one neuron we said that perceptron
هو عبارة عن شبكة عصبية بها عصبون واحد فقط قلنا أنه يمكن استخدام perceptron
15
14
it could be used for learning when  the learning model is a linear model
ويمكن استخدامه للتعلم عندما يكون نموذج التعلم نموذجًا خطيًا
14
9
and we said that perceptron has some inputs  
كمصنف وقلنا أن المستشعر لديه بعض المدخلات
8
7
some weights that are multiplied in the inputs  and then we had a adder that adds up the inputs  
التي تتضاعف في المدخلات ومن ثم يكون لدينا أفعى يضيف المدخلات
19
11
and then we have an activation function  that forms the output of the perceptron
ومن ثم يكون لدينا تنشيط الوظيفة التي تشكل ناتج المستدرك
14
10
we talked about bias in the perceptron  what is bias what is activation function  
تحدثنا عن التحيز في المدرك ما هو التحيز ما هي وظيفة التنشيط
14
12
uh we talked about learning in the  perceptron and we said that learning is
أه تحدثنا عن التعلم في المدرك وقلنا أن التعلم يحدد
14
10
setting the weights in the perceptron
الأوزان في المدرك
6
3
we talked about these issues okay
الذي تحدثنا عنه حول هذه القضايا ، حسنًا
6
8
the next subject we want to talk about
، الموضوع التالي الذي نريد التحدث عنه
8
7
is the the limitations of the perceptron  okay the limitations of the perceptron  
هو قيود المدرك ، حسنًا ، حدود الإدراك الحسي ،
13
10
okay perceptron is a very good classifier  that could be used for classification  
حسنًا ، يعتبر البيرسبترون مصنفًا جيدًا جدًا يمكن استخدامه للتصنيف
13
10
but one of the most important limitations of  the perceptron is that perceptron as we said  
ولكن واحد من إن أهم قيود المدرك هو أن المدرك كما قلنا
16
12
ah look at this figure here okay you see data
آه ، انظر إلى هذا الشكل هنا حسنًا ، ترى البيانات
10
11
some data here some of the data are plus some  of them are minus these are the classes okay  
بعض البيانات هنا بعض البيانات بالإضافة إلى بعضها ناقص هذه هي الفئات حسنًا
19
13
these are the outputs of the data some of them  
هذه هي مخرجات البيانات بعضها
10
5
are plus one the class is plus one some of them  are minus one for example the apple and the pier  
زائد واحد والفصل زائد واحد هم ناقص واحد ، على سبيل المثال التفاحة والرصيف
21
14
or the family car on and the non-family  car okay we have two classes here we have  
أو السيارة العائلية والسيارة غير العائلية حسنًا ، لدينا فئتان هنا لدينا
17
12
two inputs x1 x2 these are the inputs okay so  this is our data and these are the inputs x1 x2  
مدخلين x1 x2 هذه هي المدخلات على ما يرام ، لذا فهذه هي بياناتنا أ وهذه هي المدخلات x1 x2
21
20
okay now if if we want to do a classification on  this data it means that we want to distinguish  
حسنًا الآن إذا أردنا القيام بتصنيف على هذه البيانات ، فهذا يعني أننا نريد التمييز
20
15
or we want to separate this data using a learning  model okay if we use a linear learning model  
أو نريد فصل هذه البيانات باستخدام نموذج التعلم ، حسنًا إذا استخدمنا نموذج التعلم الخطي
19
15
if we use a linear learning model it would be  something like this okay we have a line here  
إذا استخدمنا نموذج التعلم الخطي سيكون شيئًا من هذا القبيل ، حسنًا ، لدينا سطر هنا ،
19
17
can you see this this is a line a line this  line could be used to separate the data from  
هل يمكنك أن ترى هذا سطرًا يمكن استخدام هذا الخط لفصل البيانات عن
20
13
the plus one class and the minus one class okay  so this line could be used for separating data
فئة زائد واحد وفئة ناقص واحد ، لذلك يمكن لهذا السطر يمكن استخدامه لفصل البيانات
19
15
this line could be used for separating data
يمكن استخدام هذا الخط لفصل البيانات
8
6
okay
حسنًا
1
1
uh
ولكن
1
1
but when the data could not be separated  using a line when the data could not be  
عندما يتعذر فصل البيانات باستخدام خط عندما لا يمكن
17
9
separated using the line what happens okay  look at this example in the right okay  
فصل البيانات باستخدام السطر ما يحدث حسنًا انظر إلى هذا المثال في اليمين حسنًا
15
14
you see here again we have two classes plus  one and minus one if if we want to separate the  
ترى هنا مرة أخرى لدينا صنفان زائد واحد وسالب واحد إذا أردنا فصل
20
13
plus one class from the minus  one class okay uh we can't  
فئة زائد واحد عن فئة ناقص واحد ، حسنًا ، لا يمكننا
12
12
have a line to do this okay we can't find a  line for separating the data in the two classes
الحصول على سطر للقيام بذلك ، حسنًا ، لا يمكننا العثور على سطر لفصل البيانات في
20
16
okay you can't find any line to separate the data  in the two classes okay how could we separate  
لا يمكنك العثور على أي سطر للفصل بين الفئتين البيانات في الفصلين حسنًا ، كيف يمكننا فصل
19
17
these two classes from each other okay you okay  we need something like this okay look at this
هذين الفصلين عن بعضهما البعض ، حسنًا ، حسنًا ، نحن بحاجة إلى شيء مثل هذا حسنًا ، انظر إلى هذا
18
21
you see that if we have this
ترى أنه إذا كان لدينا
7
5
learning model if if we have this uh learning  model we could separate the data from the plus one  
نموذج التعلم هذا إذا كان لدينا نموذج التعلم هذا ، فيمكننا فصل البيانات من فئة زائد واحد
19
17
class and the minus one class as you see this is  not a line this is a non-linear this is none sorry
وفئة ناقص واحد كما ترون ، هذا ليس سطرًا ، هذا غير خطي ، هذا ليس آسف
22
17
this is
هذا ،
2
2
uh let me write something here okay this is
دعني أكتب شيئًا هنا حسنًا ، هذا
9
7
non-linear this is a non-linear model
غير خطي ، هذا نموذج غير خطي
6
7
it's not a line this is called a non-linear  model learning model okay so it's not a line
إنه ليس سطرًا يسمى نموذج التعلم غير الخطي ، حسنًا ، لذا فهو ليس سطرًا ،
18
16
so in this data we can't use a line for separating  the data from the plus one class and the minus one  
لذا في هذه البيانات لا يمكننا استخدام خط لفصل البيانات عن فئة زائد واحد وفئة ناقص واحدة ،
22
18
class okay so this is a limitation of  the perceptron we said that perceptron  
حسنًا ، هذا قيد قلنا أن perceptron
14
7
is a learning model is a linear learning model  but a linear learning model has this limitation  
هو نموذج تعليمي هو نموذج تعلم خطي ولكن نموذج التعلم الخطي لديه هذا القيد
17
14
that it can't be used for data  that is separated without a line
الذي لا يمكن استخدامه للبيانات المنفصلة بدون خط
13
8
okay
حسنًا
1
1
this limitation this limitation uh pushes  pushes us to the multi-layer percepture  
، هذا القيد هذا القيد يدفعنا إلى متعدد الطبقات
12
9
as we said in the previous session  
كما قلنا في السابق الجلسة
7
5
uh the neural network it is composed it  is composed of multiple computation units
أه الشبكة العصبية التي تتكون منها تتكون من عدة وحدات حسابية
14
11
each of these computation units
، كل وحدة من هذه الوحدات الحسابية
5
7
are called neurons
تسمى الخلايا العصبية
3
3
each of the neurons they have some inputs  and output and the nerve and the neurons are  
، كل من الخلايا العصبية لديها بعض المدخلات والمخرجات والعصب والخلايا العصبية
17
12
to connected other uh the perceptron you  see you saw a perceptron was a single neuron  
متصلة بالآخر أه المستدرك الذي تراه رأيت أن المستشعرات كانت عبارة عن خلية عصبية واحدة ،
16
16
but in the multi-layer perceptron we have  multiple neurons okay we have multiple neurons  
ولكن في المستشعر متعدد الطبقات لدينا عدة خلايا عصبية ، حسنًا ، لدينا عدة خلايا عصبية
14
16
this is a very important uh issue about the  multi-layer perceptron so in the multi-layer  
، هذه مسألة مهمة جدًا حول الإدراك متعدد الطبقات ، لذلك في الإدراك متعدد
15
14
perceptron we have multiple neurons  these neurons are ordered in in some
الطبقات لدينا خلايا عصبية متعددة هذه الخلايا العصبية هي مرتبة في بعض
12
12
layers okay okay we have  we have two layers here the
الطبقات ، حسنًا ، لدينا طبقتان هنا
11
7
the hidden layer and the output layer you see  that in the hidden layer we have two neurons  
الطبقة المخفية وطبقة الإخراج التي تراها في الطبقة المخفية لدينا خليتان من الخلايا العصبية
18
14
and in the output layer we have three neurons
وفي طبقة الإخراج لدينا ثلاث خلايا عصبية
9
7
okay as i said we have several layers in the  multiple in the multi-layer perception in each  
، حسنًا كما قلت لدينا عدة طبقات في المضاعف في الإدراك متعدد الطبقات في كل
17
15
layer there are some computation units or neurons  each of these neurons has some inputs and outputs  
طبقة ، توجد بعض وحدات الحساب أو الخلايا العصبية لكل من هذه الخلايا العصبية بعض المدخلات والمخرجات ،
17
18
okay one issue about the multi-layer percep  
مشكلة واحدة حول الإدراك
7
4
perceptron is how many neurons  should we use in each layer
متعدد الطبقات ron هو عدد الخلايا العصبية التي يجب أن نستخدمها في كل طبقة
11
14
okay uh as you see we have  two layers hidden and output
، حسنًا ، كما ترى ، لدينا طبقتان مخفيتان وإخراج
12
10
the number of neurons in the hidden layer  doesn't have any rule we don't have any rule  
عدد الخلايا العصبية في الطبقة المخفية ليس لديها أي قاعدة ليس لدينا أي قاعدة
17
14
to decide about the number of neurons in the  hidden layer okay it's setting the number of  
لتحديد عدد الخلايا العصبية في الطبقة المخفية حسنًا ، فإن تحديد عدد
17
12
neurons in the hidden layer is usually a trial  and error for process trial and error process
الخلايا العصبية في الطبقة المخفية عادة ما يكون تجربة وخطأ لعملية التجربة وعملية الخطأ ،
17
15
okay so in the hidden layer we don't have any rule  
لذلك في الطبقة المخفية ليس لدينا أي قاعدة
11
8
for the number of neurons or computation  units but in the output layer we have a rule  
لعدد الخلايا العصبية أو وحدات الحساب ولكن في طبقة الإخراج لدينا قاعدة
17
12
the number of neurons in the output layer  is equal to the number of classes in data
عدد الخلايا العصبية في طبقة المخرجات يساوي عدد الفئات في البيانات على
17
12
okay so this is uh a concept about  the multi-layer perceptron that  
ما يرام ، لذلك هذا هو مفهوم حول الإدراك متعدد الطبقات وهو
12
12
how many neurons do we need in each layer  in the hidden layer we don't know but in the  
عدد الخلايا العصبية التي نحتاجها في كل طبقة في الطبقة المخفية التي لا نعرفها ولكن في
19
16
output layer the number of neurons is equal to  the number of classes okay one other issue about  
طبقة المخرجات ، عدد الخلايا العصبية يساوي عدد الفئات حسنًا ، هناك مشكلة أخرى تتعلق
18
15
the multi-layer perceptron is fully  connected fully connected means that
بالمستشعر متعدد الطبقات متصل بالكامل يعني أن
10
7
the output of each neuron is connected to the  input of all other neurons in the next layer
إخراج كل خلية عصبية متصل بالمدخل من جميع الخلايا العصبية الأخرى في ال الطبقة التالية
18
15
okay so fully connected means that  
جيدة ، لذا فهي متصلة تمامًا تعني أن
6
8
the output of each neuron is selected  to the input of all the neurons
إخراج كل خلية عصبية يتم تحديده لإدخال جميع الخلايا العصبية على
14
11
okay so this is fully connected  
ما يرام ، لذا فإن هذا متصل تمامًا
6
8
uh most most of the neural networks that we  have they are fully connected and again weights  
بمعظم الشبكات العصبية التي لدينا وهي متصلة بالكامل ومرة ​​أخرى تزن
17
11
as you s as you saw in the perceptron in the  multi-layer perceptron we have some weights too
كما تفعل لقد رأيت في المستشعر في المستشعر متعدد الطبقات لدينا بعض الأوزان بشكل جيد جدًا ،
18
17
okay
لذا فهذه
1
2
perceptron we have several layers in each layer  the number of neurons in the hidden layer is  
لدينا عدة طبقات في كل طبقة الرقم من الخلايا العصبية في الطبقة المخفية
17
13
not precise we select it by some
ليست دقيقة ، فنحن نختارها ببعض
7
6
trial and error
التجارب والخطأ
3
2
and in the output layer the number of neurons  is equal to the number of classes in data fully  
وفي طبقة المخرجات يكون عدد الخلايا العصبية مساويًا لعدد الفئات في البيانات
19
12
connected is another concept and weights weights  are the parameters of the learning model in the
المتصلة بالكامل مفهوم آخر والأوزان هي معلمات نموذج التعلم في
16
10
multi-layer perceptron
الإدراك متعدد الطبقات
2
3
okay as we said there is an activation function
، حسنًا كما قلنا ، هناك وظيفة تنشيط ،
9
9
there is an activation function in each neuron uh  in the multi-layer perceptron we usually use the
هناك وظيفة تنشيط في كل خلية عصبية آه في الإدراك متعدد الطبقات ، وعادة ما نستخدم
17
16
sigmoid function as the activation  function okay sigmoid function  
وظيفة السيني كوظيفة التنشيط على ما يرام الوظيفة السينية
9
9
is a useful uh function that is used in the  output layer of the multi-layer perceptron
هي وظيفة أه مفيدة يتم استخدامها في طبقة الإخراج من الإدراك متعدد الطبقات ،
16
14
okay so the activation function is usually sigmoid
لذا فإن وظيفة التنشيط عادة ما تكون سينية
8
8
okay learning
جيدة ، تعلم
2
3
the first point is that in the  
النقطة الأولى هي أنه في
7
5
multi-layer perceptron the learning  model is a non-linear model
الإدراك متعدد الطبقات ، يكون نموذج التعلم نموذجًا غير خطي
9
10
in the perceptron we said that  the learning model is linear  
قلنا في الإدراك الحسي أن نموذج التعلم خطي
11
8
but in the multi-layer perceptron it is non-linear
ولكن في الإدراك متعدد الطبقات يكون غير خطي ،
8
9
End of preview. Expand in Data Studio
README.md exists but content is empty.
Downloads last month
16