]> Creatis software - CreaPhase.git/blob - octave_packages/nnet-0.1.13/doc-cache
Add a useful package (from Source forge) for octave
[CreaPhase.git] / octave_packages / nnet-0.1.13 / doc-cache
1 # Created by Octave 3.6.1, Sun Apr 01 17:24:32 2012 UTC <root@t61>
2 # name: cache
3 # type: cell
4 # rows: 3
5 # columns: 28
6 # name: <cell-element>
7 # type: sq_string
8 # elements: 1
9 # length: 8
10 dhardlim
11
12
13 # name: <cell-element>
14 # type: sq_string
15 # elements: 1
16 # length: 39
17  -- Function File:  [A = dhardlim (N)
18
19
20
21
22 # name: <cell-element>
23 # type: sq_string
24 # elements: 1
25 # length: 0
26
27
28
29
30 # name: <cell-element>
31 # type: sq_string
32 # elements: 1
33 # length: 10
34 dividerand
35
36
37 # name: <cell-element>
38 # type: sq_string
39 # elements: 1
40 # length: 556
41  -- Function File: [
42           TRAINVECTORS,VALIDATIONVECTORS,TESTVECTORS,INDEXOFTRAIN,INDEXOFVALIDATION,INDEXOFTEST]
43           = dividerand (ALLCASES,TRAINRATIO,VALRATIO,TESTRATIO)
44      Divide the vectors in training, validation and test group
45      according to the informed ratios
46
47
48           [trainVectors,validationVectors,testVectors,indexOfTrain,indexOfValidatio
49           n,indexOfTest] = dividerand(allCases,trainRatio,valRatio,testRatio)
50
51           The ratios are normalized. This way:
52
53           dividerand(xx,1,2,3) == dividerand(xx,10,20,30)
54
55
56
57
58
59 # name: <cell-element>
60 # type: sq_string
61 # elements: 1
62 # length: 80
63 Divide the vectors in training, validation and test group according to
64 the infor
65
66
67
68 # name: <cell-element>
69 # type: sq_string
70 # elements: 1
71 # length: 7
72 dposlin
73
74
75 # name: <cell-element>
76 # type: sq_string
77 # elements: 1
78 # length: 117
79  -- Function File:  A= poslin (N)
80      `poslin' is a positive linear transfer function used by neural
81      networks
82
83
84
85
86 # name: <cell-element>
87 # type: sq_string
88 # elements: 1
89 # length: 72
90 `poslin' is a positive linear transfer function used by neural networks
91
92
93
94
95 # name: <cell-element>
96 # type: sq_string
97 # elements: 1
98 # length: 7
99 dsatlin
100
101
102 # name: <cell-element>
103 # type: sq_string
104 # elements: 1
105 # length: 38
106  -- Function File:  [A = dsatlin (N)
107
108
109
110
111 # name: <cell-element>
112 # type: sq_string
113 # elements: 1
114 # length: 0
115
116
117
118
119 # name: <cell-element>
120 # type: sq_string
121 # elements: 1
122 # length: 8
123 dsatlins
124
125
126 # name: <cell-element>
127 # type: sq_string
128 # elements: 1
129 # length: 105
130  -- Function File:  [A = satlins (N)
131      A neural feed-forward network will be trained with `trainlm'
132
133
134
135
136
137 # name: <cell-element>
138 # type: sq_string
139 # elements: 1
140 # length: 61
141 A neural feed-forward network will be trained with `trainlm'
142
143
144
145
146 # name: <cell-element>
147 # type: sq_string
148 # elements: 1
149 # length: 7
150 hardlim
151
152
153 # name: <cell-element>
154 # type: sq_string
155 # elements: 1
156 # length: 38
157  -- Function File:  [A = hardlim (N)
158
159
160
161
162 # name: <cell-element>
163 # type: sq_string
164 # elements: 1
165 # length: 0
166
167
168
169
170 # name: <cell-element>
171 # type: sq_string
172 # elements: 1
173 # length: 8
174 hardlims
175
176
177 # name: <cell-element>
178 # type: sq_string
179 # elements: 1
180 # length: 39
181  -- Function File:  [A = hardlims (N)
182
183
184
185
186 # name: <cell-element>
187 # type: sq_string
188 # elements: 1
189 # length: 0
190
191
192
193
194 # name: <cell-element>
195 # type: sq_string
196 # elements: 1
197 # length: 7
198 ind2vec
199
200
201 # name: <cell-element>
202 # type: sq_string
203 # elements: 1
204 # length: 256
205  -- Function File: VEC = ind2vec (IND)
206      `vec2ind' convert indices to vector
207
208           EXAMPLE 1
209           vec = [1 2 3; 4 5 6; 7 8 9];
210
211           ind = vec2ind(vec)
212           The prompt output will be:
213           ans =
214              1 2 3 1 2 3 1 2 3
215
216
217
218
219
220 # name: <cell-element>
221 # type: sq_string
222 # elements: 1
223 # length: 36
224 `vec2ind' convert indices to vector
225
226
227
228
229 # name: <cell-element>
230 # type: sq_string
231 # elements: 1
232 # length: 8
233 isposint
234
235
236 # name: <cell-element>
237 # type: sq_string
238 # elements: 1
239 # length: 293
240  -- Function File:  F = isposint(N)
241      `isposint' returns true for positive integer values.
242
243             isposint(1)   # this returns TRUE
244             isposint(0.5) # this returns FALSE
245             isposint(0)   # this also return FALSE
246             isposint(-1)  # this also returns FALSE
247
248
249
250
251
252 # name: <cell-element>
253 # type: sq_string
254 # elements: 1
255 # length: 52
256 `isposint' returns true for positive integer values.
257
258
259
260 # name: <cell-element>
261 # type: sq_string
262 # elements: 1
263 # length: 6
264 logsig
265
266
267 # name: <cell-element>
268 # type: sq_string
269 # elements: 1
270 # length: 224
271  -- Function File:  A = logsig (N)
272      `logsig' is a non-linear transfer function used to train neural
273      networks.  This function can be used in newff(...) to create a new
274      feed forward multi-layer neural network.
275
276
277
278
279
280 # name: <cell-element>
281 # type: sq_string
282 # elements: 1
283 # length: 73
284 `logsig' is a non-linear transfer function used to train neural
285 networks.
286
287
288
289 # name: <cell-element>
290 # type: sq_string
291 # elements: 1
292 # length: 6
293 mapstd
294
295
296 # name: <cell-element>
297 # type: sq_string
298 # elements: 1
299 # length: 1273
300  -- Function File: [ YY,PS] = mapstd (XX,YMEAN,YSTD)
301      Map values to mean 0 and standard derivation to 1.
302
303           [YY,PS] = mapstd(XX,ymean,ystd)
304
305              Apply the conversion and returns YY as (YY-ymean)/ystd.
306
307           [YY,PS] = mapstd(XX,FP)
308
309              Apply the conversion but using an struct to inform target mean/stddev.
310              This is the same of [YY,PS]=mapstd(XX,FP.ymean, FP.ystd).
311
312           YY = mapstd('apply',XX,PS)
313
314              Reapply the conversion based on a previous operation data.
315              PS stores the mean and stddev of the first XX used.
316
317           XX = mapstd('reverse',YY,PS)
318
319              Reverse a conversion of a previous applied operation.
320
321           dx_dy = mapstd('dx',XX,YY,PS)
322
323              Returns the derivative of Y with respect to X.
324
325           dx_dy = mapstd('dx',XX,[],PS)
326
327              Returns the derivative (less efficient).
328
329           name = mapstd('name');
330
331              Returns the name of this convesion process.
332
333           FP = mapstd('pdefaults');
334
335              Returns the default process parameters.
336
337           names = mapstd('pnames');
338
339              Returns the description of the process parameters.
340
341           mapstd('pcheck',FP);
342
343              Raises an error if FP has some inconsistent.
344
345
346
347
348
349 # name: <cell-element>
350 # type: sq_string
351 # elements: 1
352 # length: 50
353 Map values to mean 0 and standard derivation to 1.
354
355
356
357 # name: <cell-element>
358 # type: sq_string
359 # elements: 1
360 # length: 7
361 min_max
362
363
364 # name: <cell-element>
365 # type: sq_string
366 # elements: 1
367 # length: 267
368  -- Function File:  PR = min_max (PP)
369      `min_max' returns variable Pr with range of matrix rows
370
371           PR - R x 2 matrix of min and max values for R input elements
372
373           Pp = [1 2 3; -1 -0.5 -3]
374           pr = min_max(Pp);
375           pr = [1 3; -0.5 -3];
376
377
378
379
380 # name: <cell-element>
381 # type: sq_string
382 # elements: 1
383 # length: 56
384 `min_max' returns variable Pr with range of matrix rows
385
386
387
388
389 # name: <cell-element>
390 # type: sq_string
391 # elements: 1
392 # length: 5
393 newff
394
395
396 # name: <cell-element>
397 # type: sq_string
398 # elements: 1
399 # length: 820
400  -- Function File: NET = newff (PR,SS,TRF,BTF,BLF,PF)
401      `newff' create a feed-forward backpropagation network
402
403           Pr - R x 2 matrix of min and max values for R input elements
404           Ss - 1 x Ni row vector with size of ith layer, for N layers
405           trf - 1 x Ni list with transfer function of ith layer,
406                 default = "tansig"
407           btf - Batch network training function,
408                 default = "trainlm"
409           blf - Batch weight/bias learning function,
410                 default = "learngdm"
411           pf  - Performance function,
412                 default = "mse".
413
414           EXAMPLE 1
415           Pr = [0.1 0.8; 0.1 0.75; 0.01 0.8];
416                it's a 3 x 2 matrix, this means 3 input neurons
417
418           net = newff(Pr, [4 1], {"tansig","purelin"}, "trainlm", "learngdm", "mse");
419
420
421
422
423
424 # name: <cell-element>
425 # type: sq_string
426 # elements: 1
427 # length: 54
428 `newff' create a feed-forward backpropagation network
429
430
431
432
433 # name: <cell-element>
434 # type: sq_string
435 # elements: 1
436 # length: 4
437 newp
438
439
440 # name: <cell-element>
441 # type: sq_string
442 # elements: 1
443 # length: 545
444  -- Function File: NET = newp (PR,SS,TRANSFUNC,LEARNFUNC)
445      `newp' create a perceptron
446
447           PLEASE DON'T USE THIS FUNCTIONS, IT'S STILL NOT FINISHED!
448           =========================================================
449
450           Pr - R x 2 matrix of min and max values for R input elements
451           ss - a scalar value with the number of neurons
452           transFunc - a string with the transfer function
453                 default = "hardlim"
454           learnFunc - a string with the learning function
455                 default = "learnp"
456
457
458
459
460
461 # name: <cell-element>
462 # type: sq_string
463 # elements: 1
464 # length: 27
465 `newp' create a perceptron
466
467
468
469
470 # name: <cell-element>
471 # type: sq_string
472 # elements: 1
473 # length: 6
474 poslin
475
476
477 # name: <cell-element>
478 # type: sq_string
479 # elements: 1
480 # length: 117
481  -- Function File:  A= poslin (N)
482      `poslin' is a positive linear transfer function used by neural
483      networks
484
485
486
487
488 # name: <cell-element>
489 # type: sq_string
490 # elements: 1
491 # length: 72
492 `poslin' is a positive linear transfer function used by neural networks
493
494
495
496
497 # name: <cell-element>
498 # type: sq_string
499 # elements: 1
500 # length: 7
501 poststd
502
503
504 # name: <cell-element>
505 # type: sq_string
506 # elements: 1
507 # length: 153
508  -- Function File:  [PP,TT] = poststd(PN,MEANP,,STDP,TN,MEANT,STDT)
509      `poststd' postprocesses the data which has been preprocessed by
510      `prestd'.
511
512
513
514
515 # name: <cell-element>
516 # type: sq_string
517 # elements: 1
518 # length: 73
519 `poststd' postprocesses the data which has been preprocessed by
520 `prestd'.
521
522
523
524 # name: <cell-element>
525 # type: sq_string
526 # elements: 1
527 # length: 6
528 prestd
529
530
531 # name: <cell-element>
532 # type: sq_string
533 # elements: 1
534 # length: 160
535  -- Function File:  [PN,MEANP,STDP,TN,MEANT,STDT] =prestd(P,T)
536      `prestd' preprocesses the data so that the mean is 0 and the
537      standard deviation is 1.
538
539
540
541
542 # name: <cell-element>
543 # type: sq_string
544 # elements: 1
545 # length: 80
546 `prestd' preprocesses the data so that the mean is 0 and the standard
547 deviation 
548
549
550
551 # name: <cell-element>
552 # type: sq_string
553 # elements: 1
554 # length: 7
555 purelin
556
557
558 # name: <cell-element>
559 # type: sq_string
560 # elements: 1
561 # length: 105
562  -- Function File:  A= purelin (N)
563      `purelin' is a linear transfer function used by neural networks
564
565
566
567
568 # name: <cell-element>
569 # type: sq_string
570 # elements: 1
571 # length: 64
572 `purelin' is a linear transfer function used by neural networks
573
574
575
576
577 # name: <cell-element>
578 # type: sq_string
579 # elements: 1
580 # length: 6
581 radbas
582
583
584 # name: <cell-element>
585 # type: sq_string
586 # elements: 1
587 # length: 100
588  -- Function File:  radbas (N)
589      Radial basis transfer function.
590
591      `radbas(n) = exp(-n^2)'
592
593
594
595
596
597 # name: <cell-element>
598 # type: sq_string
599 # elements: 1
600 # length: 31
601 Radial basis transfer function.
602
603
604
605 # name: <cell-element>
606 # type: sq_string
607 # elements: 1
608 # length: 6
609 satlin
610
611
612 # name: <cell-element>
613 # type: sq_string
614 # elements: 1
615 # length: 104
616  -- Function File:  [A = satlin (N)
617      A neural feed-forward network will be trained with `trainlm'
618
619
620
621
622
623 # name: <cell-element>
624 # type: sq_string
625 # elements: 1
626 # length: 61
627 A neural feed-forward network will be trained with `trainlm'
628
629
630
631
632 # name: <cell-element>
633 # type: sq_string
634 # elements: 1
635 # length: 7
636 satlins
637
638
639 # name: <cell-element>
640 # type: sq_string
641 # elements: 1
642 # length: 105
643  -- Function File:  [A = satlins (N)
644      A neural feed-forward network will be trained with `trainlm'
645
646
647
648
649
650 # name: <cell-element>
651 # type: sq_string
652 # elements: 1
653 # length: 61
654 A neural feed-forward network will be trained with `trainlm'
655
656
657
658
659 # name: <cell-element>
660 # type: sq_string
661 # elements: 1
662 # length: 13
663 saveMLPStruct
664
665
666 # name: <cell-element>
667 # type: sq_string
668 # elements: 1
669 # length: 119
670  -- Function File:  saveMLPStruct (NET,STRFILENAME)
671      `saveStruct' saves a neural network structure to *.txt files
672
673
674
675
676 # name: <cell-element>
677 # type: sq_string
678 # elements: 1
679 # length: 51
680 `saveStruct' saves a neural network structure to *.
681
682
683
684 # name: <cell-element>
685 # type: sq_string
686 # elements: 1
687 # length: 3
688 sim
689
690
691 # name: <cell-element>
692 # type: sq_string
693 # elements: 1
694 # length: 215
695  -- Function File: NETOUTPUT = sim (NET, MINPUT)
696      `sim' is usuable to simulate a before defined neural network.
697      `net' is created with newff(...) and MINPUT should be the
698      corresponding input data set!
699
700
701
702
703 # name: <cell-element>
704 # type: sq_string
705 # elements: 1
706 # length: 61
707 `sim' is usuable to simulate a before defined neural network.
708
709
710
711 # name: <cell-element>
712 # type: sq_string
713 # elements: 1
714 # length: 6
715 subset
716
717
718 # name: <cell-element>
719 # type: sq_string
720 # elements: 1
721 # length: 1632
722  -- Function File:  [MTRAIN, MTEST, MVALI] = subset
723           (MDATA,NTARGETS,IOPTI,FTEST,FVALI)
724      `subset' splits the main data matrix which contains inputs and
725      targets into 2 or 3 subsets depending on the parameters.
726
727      The first parameter MDATA must be in row order. This means if the
728      network contains three inputs, the matrix must be have 3 rows and
729      x columns to define the data for the inputs. And some more rows
730      for the outputs (targets), e.g. a neural network with three inputs
731      and two outputs must have 5 rows with x columns!  The second
732      parameter NTARGETS defines the number or rows which contains the
733      target values!  The third argument `iOpti' is optional and can
734      have three status:            0: no optimization     1: will
735      randomise the column order and order the columns containing min
736      and max values to be in the train set     2: will NOT randomise
737      the column order, but order the columns containing min and max
738      values to be in the train set         default value is `1' The
739      fourth argument `fTest' is also optional and defines how much data
740      sets will be in the test set. Default value is `1/3' The fifth
741      parameter `fTrain' is also optional and defines how much data sets
742      will be in the train set. Default value is `1/6' So we have 50% of
743      all data sets which are for training with the default values.
744
745             [mTrain, mTest] = subset(mData,1)
746             returns three subsets of the complete matrix
747             with randomized and optimized columns!
748
749             [mTrain, mTest] = subset(mData,1,)
750             returns two subsets
751
752
753
754
755
756 # name: <cell-element>
757 # type: sq_string
758 # elements: 1
759 # length: 80
760 `subset' splits the main data matrix which contains inputs and targets
761 into 2 or
762
763
764
765 # name: <cell-element>
766 # type: sq_string
767 # elements: 1
768 # length: 6
769 tansig
770
771
772 # name: <cell-element>
773 # type: sq_string
774 # elements: 1
775 # length: 224
776  -- Function File:  A = tansig (N)
777      `tansig' is a non-linear transfer function used to train neural
778      networks.  This function can be used in newff(...) to create a new
779      feed forward multi-layer neural network.
780
781
782
783
784
785 # name: <cell-element>
786 # type: sq_string
787 # elements: 1
788 # length: 73
789 `tansig' is a non-linear transfer function used to train neural
790 networks.
791
792
793
794 # name: <cell-element>
795 # type: sq_string
796 # elements: 1
797 # length: 5
798 train
799
800
801 # name: <cell-element>
802 # type: sq_string
803 # elements: 1
804 # length: 614
805  -- Function File:  [NET] = train (MLPNET,MINPUTN,MOUTPUT,[],[],VV)
806      A neural feed-forward network will be trained with `train'
807
808           [net,tr,out,E] = train(MLPnet,mInputN,mOutput,[],[],VV);
809
810           left side arguments:
811             net: the trained network of the net structure `MLPnet'
812
813           right side arguments:
814             MLPnet : the untrained network, created with `newff'
815             mInputN: normalized input matrix
816             mOutput: output matrix (normalized or not)
817             []     : unused parameter
818             []     : unused parameter
819             VV     : validize structure
820
821
822
823
824 # name: <cell-element>
825 # type: sq_string
826 # elements: 1
827 # length: 59
828 A neural feed-forward network will be trained with `train'
829
830
831
832
833 # name: <cell-element>
834 # type: sq_string
835 # elements: 1
836 # length: 6
837 trastd
838
839
840 # name: <cell-element>
841 # type: sq_string
842 # elements: 1
843 # length: 447
844  -- Function File:  PN = trastd (P,MEANP,STDP)
845      `trastd' preprocess additional data for neural network simulation.
846
847             `p'    : test input data
848             `meanp': vector with standardization parameters of prestd(...)
849             `stdp' : vector with standardization parameters of prestd(...)
850
851             meanp = [2.5; 6.5];
852             stdp = [1.2910; 1.2910];
853             p = [1 4; 2 5];
854
855             pn = trastd(p,meanp,stdp);
856
857
858
859
860
861 # name: <cell-element>
862 # type: sq_string
863 # elements: 1
864 # length: 66
865 `trastd' preprocess additional data for neural network simulation.
866
867
868
869 # name: <cell-element>
870 # type: sq_string
871 # elements: 1
872 # length: 7
873 vec2ind
874
875
876 # name: <cell-element>
877 # type: sq_string
878 # elements: 1
879 # length: 260
880  -- Function File: IND = vec2ind (VECTOR)
881      `vec2ind' convert vectors to indices
882
883           EXAMPLE 1
884           vec = [1 2 3; 4 5 6; 7 8 9];
885
886           ind = vec2ind(vec)
887           The prompt output will be:
888           ans =
889              1 2 3 1 2 3 1 2 3
890
891
892
893
894
895 # name: <cell-element>
896 # type: sq_string
897 # elements: 1
898 # length: 37
899 `vec2ind' convert vectors to indices
900
901
902
903
904
905